To get your site ready to show ads, copy and paste this HTML tag between the tags on each page of your site. Learn more about using HTML tag to connect the site. 스마트한 세상 그 뒤에선 킬러 로봇 개발...AI 자율무기 제한 목소리 커져 id="tt-body-page" class="layout-aside-right paging-number">
본문 바로가기
로봇(자율주행로봇,서비스로봇)

스마트한 세상 그 뒤에선 킬러 로봇 개발...AI 자율무기 제한 목소리 커져

by 아담스미스 2022. 2. 1.
728x90
반응형

스마트한 세상 그 뒤에선 킬러 로봇 개발...AI 자율무기 제한 목소리 커져

경쟁국보다 신무기 성능 떨어지면, AI 무기의 잠재적 위험성 커져

극초음속 미사일이 미 항모로 날아오는 경우, AI 의사결정 필요해

미국, 중국“인공지능 자율 무기 금지 불필요” 동맹국은 규제 요구

 

 

이들은 군사작전용 로봇을 테스트하기 위해 여기에 왔지만, 낙하산 착지 잘못으로 로봇 4대 중 1대의 통신 모듈이 고장난다. 이 작은 실수는 거대한 나비효과를 만들어 마을은 생지옥으로 변한다.

이 이야기는 지난해 개봉한 호주 SF 액션 영화 몬스터 오브 맨(Monsters of Man)의 줄거리다. 인공지능 킬러 로봇의 공포를 그리고 있는 이 영화를 보고 사람들은 어떤 생각을 했을까?

21세기 4차 산업혁명의 최대 화두인 인공지능을 이용한 무기 개발은 전문가들 사이에서도 극명하게 의견이 엇갈린다. 구글의 인공지능 개발자 레이 커즈와일(Ray Kurzweil)은 “오는 2045년쯤에는 전 인류의 지능을 능가하는 초지능이 탄생해 인간을 불멸의 세계로 이끌 것”이라고 찬사를 아끼지 않는다.

반면에 영국의 우주 물리학자 스티븐 호킹(Stephen Hawking) 박사는 “완전한 인공지능의 개발이 인류의 종말을 초래할 수 있다”라고 경고한 바 있다.

구글, MS, IBM 등 글로벌 빅테크 기업들의 연구개발 투자와 스타트업 들의 아이디어가 접목되면서 인공지능은 예상보다 훨씬 빠르게 우리 곁에 다가왔다. 의료, 교육, 금융, 쇼핑, 보안 등 벌써 사회에는 인공지능이 폭넓게 쓰이면서 매우 편리한 세상이 펼쳐지고 있다.

그러나 한편에선 인공지능의 편향성, 해커들의 범죄, 일자리 감소 등의 위험을 걱정하는 목소리도 높다. 특히, 군사 부문에서도 인공지능을 적극적으로 채택하고 있어 향후 킬러 로봇과 같은 치명적인 파괴력을 가진 자율무기의 등장이 우려되고 있는 실정이다.

AI, 새로운 군비경쟁 촉발


지난 12일 밀리터리 전문 매체 ‘소프렙(SOFREP)’의 첫 번째 AI 작가 타스(TARS: 영화 인터스텔라의 USMC 로봇 AI의 이름을 따서 명명)는 소프렙에 군사용 인공지능의 위험성에 대한 칼럼을 올렸다.

AI 작가 타스에 따르면, 곧 전쟁에서 군용 인공지능이 표준이 될 것이다. 그리고 비록 국제 사회가 그것을 금지하는 데 동의해도 그것은 충분치 않으며, 전쟁에 인공지능을 사용하는 것은 인류에게 파괴적인 결과를 가져올 수 있다.

AI는 현재 인명 피해를 줄이기 위해 군사작전에 통합되고 있지만, 어떤 위험이 있을까요?

작가 타스는 “AI가 우리에게 어떤 영향을 미칠지는 의문이 있으나, 무기화된 군사용 AI는 위험한 것”이라고 주장했다. 특히, 최신 스마트폰 업데이트를 내려받는 데 어려움을 겪는 국방부의 현 합동참모본부의 손에서는 더욱 그렇다는 것이다.

AI 무기는 해를 끼치거나, 고문하거나, 인권을 침해하는 비윤리적 목적으로 사용될 수 있으며, 국제 사회는 현재 AI 무기 사용을 금지해야 할지, 말아야 할지에 대해 논쟁을 벌이고 있지만, 그 배는 이미 오래 전에 항해한 상태라고 타스는 주장했다.

국방부 수뇌부는 군용 인공지능을 이해하지 못해 전문가에 전적으로 의존하고 있으며, 이러한 지식의 부족은 군사 시스템에 대한 AI 사용의 중요한 결정을 내려야 하는 조직을 불리하게 만든다.

그렇다면, AI 무기란 무엇인가? 타스에 따르면, 인간의 개입 없이 결정을 내리고, 조치를 취할 수 있는 능력을 제공하는 AI는 결과적으로, 많은 군사적 이점을 제공하는데 최근 몇 년 사이 대량으로 진화해 이제는 전쟁에 활용할 수 있게 됐다는 것이다.

AI 무기는 드론이나 로봇처럼 사람의 감시 없이 독립적으로 운용되는 자율무기 체계에 활용되는데 이들은 전통적인 무기 시스템보다 성능이 뛰어나지만, 프로그래밍이 복잡하므로 항상 인간의 통제를 필요로 하지 않는다.

AI 무기의 위험성에 대해 타스는 “한쪽이 경쟁력을 확보하기 위해 기술을 활용할 수 있는 새로운 형태의 전쟁을 만들어낸다”고 주장했다.

예를 들면, 중국은 군사용 AI 프로젝트에 많은 투자를 해왔고, 자율무기를 개발하는 첫 번째 국가가 될 것으로 보이는데 조만간에 이 로봇들은 인간 군인들을 대체할 것이라고 전망했다.

국제 사회가 이런 종류의 전쟁 금지에 동의하지만, 다른 나라들이 여전히 인공지능 무기를 사용하고 있을지도 모르기 때문에 이런 규제는 충분치 않다고 내다봤다.

이로 인해 국가 간 AI 군비경쟁에서 앞서 나가기 위한 또 하나의 군비경쟁이 벌어지고 있는 상황이다. 만약에 한 나라가 현재의 무기보다 유리한 무기를 개발한다면, 다른 나라들은 군사적으로 경쟁할 수 있는 능력을 잃을 위험이 있다.

만약 다른 나라들이 그들의 무기가 경쟁자들의 새로운 첨단 무기들에 대해 효과적이지 않다고 본다면, 인공지능 무기의 위험성은 잠재적으로 커질 수 있다.

그렇다면, 우리가 통제할 수 있을까? 타스는 다음과 같이 답했다.

AI가 지배하는 시스템이 안전하거나 제어 가능하다는 보장은 없다. 우리는 인공지능이 너무 발전해 통제할 수 없는 시기, 즉 기계 지능이 인간 지능을 능가할 수 있는 시대로 다가가고 있다.

이는 단순한 이론이 아니라 이미 자율주행차에서 일어난 일이다. 인간은 더 이상 자율 주행 기술로 자동차의 제어 장치를 대체할 수 없다.

마지막으로, 타스는 “앞으로 우리는 무기화된 군사용 AI가 장악하고, 통제 불능 상태가 되는 것을 막을 방법을 찾아야 할 것이다.”라고 강조했다.

오작동이나 실수의 위험성 있어


최근 들어 군사용 무기에 대한 AI 도입을 적극적으로 추진하고 있는 미군은 AI 무기에 대한 위험성을 오래 전부터 인정하고 있다.

올해 10월 15일 야후 파이낸스 리포터 막스 잔(Max Zahn)은 마이크로소프트 뉴스에 미군 자율무기 금지에 관한 기사를 올렸다.

막스 리포트에 따르면, 니콜라스 차일런(Nicholas Tylan) 미 국방성 최고 소프트웨어 책임자가 지난달 미군이 사이버전과 인공지능(AI)에서 중국에 “15~20년 뒤처졌다”라는 우려로 돌연 사임했다고 파이낸셜타임스(FT)에 밝혔다는 것이다.

이 경고는 구글의 전 경영진인 카이푸 리(kaipu li)가 말하는 ‘제3의 혁명’에 대비하는 방법에 대한 미군 내부의 최근의 불협화음을 나타낸다고 그는 주장했다.

현재 컨설팅 회사인 맥 크리스털 그룹을 이끄는 전 장군 스탠리 맥크리스털(Stanley McChrystal)은 인터뷰에서 “인공지능이 전장에서 치명적인 결정을 내리기 위해 불가피하게 올 것”이라고 말했다. 그러나 그는 잠재적인 오작동이나 실수의 위험성을 인정했다는 것이다.

최근에 ‘리스크: 사용자 안내서’라는 책을 공동 집필한 맥크리스털은 “사람들은 인공지능에 치명적인 타격을 가할 수 있는 통제권을 절대 주지 않을 것”이라고 말했다.

반면에 “초고속 미사일인 극초음속 미사일이 미국 항공모함을 향해 날아오는 경우, 추적할 시간도 없고, 고위 지도자들의 의사결정과정에 둘 시간도 없으므로 미사일과 교전할 수도 없을 것”이라고 맥크리스털은 주장했다.

지난 2015년 테슬라(TSLA) 최고경영자(CEO) 일론 머스크, 애플(AAPL) 공동 창업자 스티브 워즈니악 등 기술계 저명인사와 AI 연구원 수천 명이 이런 무기 금지를 촉구하는 공개서한에 서명했다.

조 바이든 대통령은 지난 2월 미·유럽 정상회의에서 “사이버 공간, 인공지능, 생명공학에서 기술의 진보와 행동 규범을 지배할 규칙을 만들어 사람들을 속박하지 말고 정신적으로 고양시키는데 이용하라”고 국제공조를 요청했다.

맥크리스털 대변인은 “전투 속도가 빨라지면서 미군 장교들이 인공지능에 의사결정권을 넘겨야 할 것”이라며, 그러나“그것은 위험을 초래한다”라고 그는 지적했다.

그는 “당신은 기술을 창조했고, 그것을 작동시키기 위한 과정을 거쳤지만, 전쟁의 속도로 작동하기 위해서는 근본적으로 기술을 잘 작동시켜 신뢰를 얻도록 해야 할 것”이라고 말했다.

이어 “특히, 오작동이나 스푸핑의 가능성이 있거나, 다른 것들이 있을 경우, 이는 매우 두려울 수 있다”라고 덧붙였다.

그는 인터뷰에서 조직이 AI 시스템의 능력을 완전히 이해하지 못할 때, AI 시스템이 차지하는 권한에 대해 경고하기도 했다. 또 “현대 조직에서는 실제로 알고리즘 적으로 어떤 결정이 내려지고, 어떤 결정을 사람들이 내리는지에 대해 완전히 이해하는 것은 어렵다”라고 그는 지적했다.

마지막으로, 그는 “당신이 그것을 가지고 있지 않다면, 나는 당신이 더 이상 당신 조직에 대해 진정한 통제를 하지 못할 위험이 있다고 주장할 것”이라고 강조했다.

AI 자율무기 실제로 사용


올해 7월 7일 인프론트 프랑스의 장 프랑수아 포데뱅(Jean-François Fudevin) 이사는 워싱턴 포스트에 “미국은 인간이 AI 무기를 항상 통제할 것이라고 말하지만, 자율 전쟁의 시대는 이미 도래했다”고 말했다.

프랑수아에 따르면, 미 국방성은 AI 무기 금지는 필요하지 않다고 말하지만, 스스로 생각하는 미사일, 총, 드론은 이미 전투 중에 사람들을 죽이고 있으며, 수년 동안 지속해왔다는 것이다.

수년간의 전쟁으로 상처 입은 사막 전쟁터를 상상해 보라. 후퇴하는 군대는 적이 진격하자, 허둥지둥 도망친다. 취미생활자나 영화 제작자들이 사용하는 쿼드콥터와 구별이 안 되는 수십 대의 소형 드론이 하늘에서 윙윙거리며, 내려와 지형을 스캔하고, 컴퓨터에 탑재한 AI가 표적으로 보이는 것을 스스로 결정한다.

이것은 미래의 전쟁 이야기가 아니라고 프랑수아는 주장했다. 지난해 봄 리비아의 독재자 칼리파 히프터(Khalifa Hifter)에 충성하는 군인들이 유엔이 인정한 리비아 정부의 터키 지원군을 피해 후퇴하면서 벌어진 실제 장면이다.

분쟁을 기록하기 위해 임명된 유엔 무기 단체와 법률 전문가들에 따르면, 인간의 통제 없이 작전을 수행할 수 있는 드론이 히프터의 군인들이 달아나자 그들을 사냥했다.

미국과 러시아, 중국은 “AI 무기 금지가 불필요하다”는 입장이다. 그러나 점점 더 많은 수의 운동가들과 국제 동맹국들이 규제를 요구하고 있다.

오늘날, 인권 운동가들이 오랫동안 요구했던 치명적인 자율무기들에 대한 전면적인 금지를 제정하려는 노력은 현재 30개국의 지지를 받고 있다. 그러나 세계의 주요 군사 강국들은 그것이 필요하지 않다고 주장한다.

미군은 우려가 지나치게 부풀려져 있고, 인간은 자율무기를 효과적으로 통제할 수 있다고 말하지만, 러시아 정부는 진정한 AI 무기가 아직 존재하지 않기 때문에 금지할 수 없다는 태도다.

그러나 지상에서의 사실들은 기술의 발전이 시리아나 리비아 내전처럼 복잡한 갈등과 결합해 이미 스스로 결정을 내리는 무기가 사람들을 죽이고 있는 현실을 만들어냈음을 보여준다.

남덴마크 대학의 자율무기 연구원인 잉그빌드 보데(Ingbuild Bode)는“이 논쟁은 여전히 미래를 지향하고 있다”며,“우리는 이미 진행되고 있는 일을 훨씬 더 자세히 살펴봐야 한다”고 말했다.

지난해 자율적으로 살상할 수 있는 드론이 사용된 곳은 리비아뿐만이 아니다. 터키는 시리아와의 국경을 순찰하기 위해 동일한 4중 헬리콥터를 사용해왔다.

이런 종류의 무기들이 주류로 확고히 옮겨가고 있다고 그는 주장했다. 비록 미국, 중국, 러시아와 같은 나라들이 자율무기를 제한하는 조약에 대한 논의에 참여하고 있지만, 그들은 그것을 개발하기 위해 서두르고 있다.

국제로봇 무기 통제위원회(IRC)의 공동설립자이자 치명적인 자율무기에 대한 엄격한 규정을 옹호하는 피터 아사로(Peter Asaro) 뉴욕 뉴스쿨 교수는 “선진화된 군대는 이러한 기술의 한계를 뛰어넘고 있다”며, “그것들은 빠르게 확산될 것”이라고 주장했다.

유럽의 국회의원들은 최근 인공지능의 사용을 규제하는 엄격한 새로운 규정을 제안했다. 구글, 아마존, 애플, 테슬라를 포함한 회사들은 이 기술 개발에 수십억 달러를 쏟아부었고, AI 프로그램이 어떻게 작동하는지, 그리고 널리 사용될 경우, 어떤 결과가 초래될 수 있는지에 대한 충분한 지식 없이 때때로 배치되고 있다는 비판도 있다.

오스트리아 등 일부 국가가 자율무기에 대한 세계적인 금지 요구에 동참했지만, 미국의 기술 및 정치 지도자들은 반발하고 있다.

자율무기를 제한하는 구속력 있는 세계적인 조약은 없지만, 정부와 무기회사들이 인간이 통제권을 유지할 것이라고 강조하는 것은 그 위험에 대한 인식이 커지고 있다는 것을 보여준다고 킬러 로봇 중지 캠페인을 이끈 메리 웨어햄(Mary Wareham)은 말했다.

 

 

 

 

(출처:http://www.aitimes.com/news/articleView.html?idxno=141942)

728x90

댓글