메뉴열기 검색열기

[현실화된 AGI] "진화한 AGI, 인류 멸종수준 위협 될수도" 무기화 우려에 커지는 `통제력·안전` 주장

팽동현 기자   dhp@
입력 2024-05-15 18:40

저작권침해·가짜정보 확산 지적
"규범·글로벌질서 확립" 목소리


[현실화된 AGI] "진화한 AGI, 인류 멸종수준 위협 될수도" 무기화 우려에 커지는 `통제력·안전` 주장
AI가 한 단계 진화한 일반AI(AGI)의 등장은 AI와 관련한 통제력과 안전성, 부작용 우려를 더 키우고 있다. 전문가들은 AGI의 능력에 맞춰 AI 규범과 글로벌 질서를 만들어야 한다고 지적한다.


지난 3월 미국 기업 글래드스톤 AI는 미 국무부 의뢰를 받아 발표한 보고서에서 "가장 발전한 AI 시스템이 최악의 경우 '인류 멸종 수준의 위협'이 될 수 있는 만큼 미국 정부가 개입해야 한다"고 경고했다. 보고서는 주요 AI 기업의 최고경영진, 사이버보안 연구원, 대량 살상 무기 전문가, 국가 안보 정부 당국자 등 200여 명을 1년여에 걸쳐 인터뷰한 내용을 토대로 작성됐다.
보고서는 AI의 대표적인 위험으로 AI의 무기화를 꼽았다. "AI와 AGI의 부상은 핵무기 도입을 연상시키는 방식으로 세계 안보를 불안정하게 할 가능성이 있다. AGI는 통제력 상실로 인한 재앙적 위험의 주요 요인으로 간주되고 있다"고 지적했다.

앞서 지난해 샘 올트먼 오픈AI CEO, 데미스 허사비스 구글 딥마인드 CEO 등 350명은 성명서를 내고 "AI로 인한 멸종 위험을 낮추는 것은 팬데믹·핵전쟁 같은 다른 사회적 규모의 위험 못지않게 글로벌 우선순위가 돼야 한다"고 주장했다.



미국의 전설적인 투자자 워런 버핏 버크셔 해서웨이 회장도 최근 AI의 파급력을 핵무기에 비유하면서 AI를 활용한 사기 우려를 지적했다. 그는 "만약 내가 사기에 투자하는 데 관심이 있었다면 이것은 역대 성장 산업이 될 것"이라고 말했다. 버핏은 핵무기를 램프에서 꺼낸 요정에 비유하고는 AI도 핵무기와 마찬가지라고 설명했다. "요정의 힘이 나를 정말 두렵게 한다"며 "나는 요정을 다시 램프에 집어넣을 수 있는 방법을 모르는데 AI도 어느 정도 비슷하다"고 말했다.
'월가의 황제'로 불리는 제이미 다이먼 JP모건 회장도 최근 주주에게 보내는 연례 서한에서 "AI가 가져올 결과는 인쇄술, 증기기관, 컴퓨터, 인터넷 등 과거 수백년간 이뤄온 주요 기술의 발명 만큼이나 혁신적이고 놀라울 것"이라며 "AI가 우리 산업을 얼마나 크게, 그리고 빠르게 바꿀지 알 수 없고 사회 전반에 어떤 영향을 미칠지 알기 어렵다"고도 지적했다. 그러면서 AI가 가져올 부작용에 대비해야 한다고 주장했다.

권헌영 고려대 정보보호대학원장은 "AGI는 쓰는 사람이 그 가치와 위험성을 잘 이해하는 것이 중요하다. 사람이 만들었지만 통제에 한계가 있는 핵, 생명공학과 비슷한 형태의 대비책을 미리 갖추는 게 필요하다"면서 "21일 개막하는 'AI 서울 정상회의'에서 관련한 인류 공통의 노력을 시작하는 선언을 했으면 한다"고 밝혔다.

이성엽 고려대 법학전문대학원 교수는 "EU 인공지능법의 경우 AGI에 대해 기술문서 업데이트, 저작권법 준수, 학습데이터 출처 요약 공개의무를 부과하고 있다. 결국 기존 창작자의 권리 보호와 편향성을 방지하지 위한 노력을 강조하고 있다"며 "실제로 인간과 유사하거나 인간을 뛰어넘는 AGI가 개발·활용된다면 사전에 수준, 능력, 활용처 등에 대한 기업 간 국가간 규범 합의가 있어야 할 것"이라고 밝혔다. 원종윤 동명대 시각디자인학과 교수는 "GPT-4o를 직접 사용해 보니 멀티모달로 다양한 인풋 기능과 실시간 생성이 가능해 저작권 침해와 가짜 정보 양산이 더 빠르게 의식하지 못하는 사이에 일어날 것으로 보인다"며 "관련 대응 장치가 필요할 것"이라고 말했다. 팽동현기자 dhp@dt.co.kr



[ 저작권자 ⓒ디지털타임스, 무단 전재 및 재배포 금지 ]