To get your site ready to show ads, copy and paste this HTML tag between the tags on each page of your site. Learn more about using HTML tag to connect the site. 인공지능의한계 id="tt-body-page" class="layout-aside-right paging-number">
본문 바로가기
인공지능(AI)

인공지능의한계

by 아담스미스 2022. 5. 5.
728x90
반응형

아이는 아는데 인공지능(AI)은 헛갈리는 단어

 

AI 발전속도 놀랍지만 아직 ‘인간 수준’과는 거리 멀어
특히 언어처리 영역에서 AI 언어모델의 효율성 미흡 
인간의 뇌를 연구, AI의 수준을 높이려는 연구 가속화 
메타AI, 자율학습 AI개발 위해 장기 뇌연구 돌입 선언

(사진=셔터스톡)

‘오렌지(orange)’는 과일을 가리키기도 하고 색깔을 말할 때 쓰이기도 한다. 어린 아이들은 이 단어의 두 가지 용례를 금방 배운다. 그러나 AI는 어려워한다.

인공지능은 4차산업혁명 시대를 이끄는 핵심 동력이고 놀라운 속도로 발전하고 있지만 아직은 ‘인간 수준(human level)’에는 못 미친다. 특히 언어처리 영역에서는 거리가 더욱 멀다. 인공지능 연구자들은 그래서 인간의 뇌에 대한 연구에 매달린다. 인공지능이 인간의 지능을 흉내내려는 것이기 때문에 뇌 연구가 필요하다고 본다.

페이스북 모기업 메타(META)의 연구조직인 메타AI는 인간의 뇌가 어떻게 언어를 처리하는지 좀 더 잘 이해하기 위한 장기 연구에 착수한다는 발표를 했다고 미국의 기술 웹사이트인 벤처비트(VentureBeat)가 최근 보도했다. 메타AI의 장 레미 킹(Jean-Rémi King) 선임 과학자는 “우리는 AI시스템을 뇌와 그대로 비교해 보려고 한다”고 벤처비트에 말했다. 그는 구어(spoken language)가 인간을 전적으로 독특하게 만든다면서 이와 관련해 뇌가 어떻게 작동하는지를 이해하려는 연구는 아직도 진행중이라고 지적했다.

이는 연구진이 “무엇이 인간을 기계보다 훨씬 더 강력하고 효율적으로 만드는가? 그저 유사성을 밝히기 보다는 차이를 정확히 짚어내기를 원한다”는 의미라고 벤처비트는 설명했다. 메타AI는 현재 프랑스의 뇌이미지 연구 기관인 뉴로스핀(CEA), 프랑스 국립 디지털 과학 연구원(INRIA)과 공동 연구를 하고 있다. 메타AI의 초점은 인간의 지도 없이 학습하는 ‘인간 수준 AI’에 맞춰져 있다.  

연구자들은 인간의 뇌가 언어를 어떻게 처리하는지 좀 더 이해함으로써 사람만큼 효율적으로 언어를 학습하고 처리하는 AI를 개발하는데 통찰을 얻을 수 있다고 생각한다. 메타AI의 킹 선임 과학자는 “방대한 과제를 수행하는 학습 알고리즘을 개발하고 훈련시키는 일은 갈수록 쉬워지고 있다”면서 “그러나 이런 AI시스템은 인간의 뇌가 가진 효율성에는 크게 못 미친다. 분명한 것은 이 시스템들엔 인간만큼 효율적으로 언어를 이해하고 학습하도록 하는 뭔가가 빠져 있다는 것이다”라고 그는 말했다.

자연어처리모델 이미지(사진=셔터스톡)

딥러닝(Deep Learning)에서는 신경망의 수많은 레이어들이 함께 학습을 위해 작동한다. 이런 접근법은 메타AI 연구원들이 실험 참가자가 이야기를 읽거나 들을 때 단어와 문장의 ‘인지 표상(perceptual representation)’이 인간의 뇌에서 언제, 어떤 부위에 발현되는지를 조명하는데 적용된다. 지난 2년간 연구자들은 실험 참가자들의 자기공명영상(MRI)과 컴퓨터 단층촬영(CT) 영상에서 뽑아낸 뇌영상(neuroimaging) 데이터셋을 딥러닝기술에 적용시켰다. 이 데이터들은 프린스턴 대학교 등 몇몇 대학 연구소들이 공유했다.

연구팀은 밀리초(millisecond, 1000분의 1초) 단위로 뇌영상 이미지를 촬영하기 위해 자기뇌파검사법(magnetoencephalography, MEG)을 활용하면서 수천장의 뇌 스캔 모델을 만들었다. 프랑스 국립 디지털 과학연구원(INRIA)과 연구팀은 복잡한 이야기를 들은 345명의 실험 참가자로부터 MRI로 수집한 뇌 반응과 다양한 언어모델을 비교했다. 이 실험에서 뇌의 활동과 가장 가까운 모델은 이야기의 맥락으로부터 다음에 나올 단어를 가장 잘 예측한 모델이었다.

“어둡고 폭풍우 치는 어느날 밤...” 혹은 “옛날 옛적에..”라는 문장 다음에 나올 단어를 인간과 비슷하게 떠올린(예측한) 모델이 있었다는 것이다. 이처럼 부분적으로 관찰가능한 입력값에 기초한 예측은 AI의 ‘자기지도학습(self-supervised learning, SSL)’에 핵심이 된다. 

그러나 인간의 뇌는 멀리 떨어진 시점에서 나올 수 있는 단어와 아이디어도 생각할 수 있지만 AI 언어모델은 바로 다음에 나올 단어만 예측하도록 훈련되기 때문에 복잡한 아이디어나 이야기를 예측하는데는 한계가 있다. 또 인간의 뇌는 수백만 개의 문장을 학습하면 지속적으로 이를 조(兆) 단위의 시냅시스에 저장한다. 반면 AI언어모델은 수백만 개의 문장을 훈련하면 1750억 개의 인공 시냅시스로 패러미터화(parameterize)한다. 학습과 저장을 동시에 하는 시냅시스의 규모에서 AI모델이 인간에 훨씬 못 미치는 것이다. 

킹 선임과학자는 “오늘날 AI시스템이 아무리 훌륭하고 인상적일지라도 (인간에 비해) 비효율적이라는 점은 확실하다”고 말했다. AI 모델이 갈수록 복잡한 일을 해내고 있지만 “AI모델은 사물을 폭넓게 이해하지 못한다는 게 분명해지고 있다”고 그는 덧붙였다. 그러나 좀 더 심층적인 ‘장기(long-term) 예측 능력’ 연구를 통해서 연구자들이 현재의 AI언어모델을 개선할 수 있을 것이라고 그는 말했다.

또 이런 장기 예측 알고리즘을 발전시키면 AI가 인간의 뇌에 좀 더 가까워질 것이라고 했다. 그는 “AI시스템들이 인간의 뇌에 비교되는 것은 확실히 몇 년전에는 없었던 일”이라면서 과학의 진보는 신경과학과 AI의 통합을 필요로 하며 이들 두 영역은 시간이 지나면 더 가깝게 그리고 협업 가능하게 진화할 것이라고 그는 덧붙였다.

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

(출처:http://www.aitimes.com/news/articleView.html?idxno)

728x90

댓글