To get your site ready to show ads, copy and paste this HTML tag between the tags on each page of your site. Learn more about using HTML tag to connect the site. 구글, AI 검색 기술로 이용자 위기 상황 탐지 id="tt-body-page" class="layout-aside-right paging-number">
본문 바로가기
인공지능(AI)

구글, AI 검색 기술로 이용자 위기 상황 탐지

by 아담스미스 2022. 4. 2.
728x90
반응형

구글, AI 검색 기술로 이용자 위기 상황 탐지

 

검색 이용자의 위기 상황 감지를 위해 AI 기술 활용 강화
차세대 AI 검색 기술인 멀티태스크 통합 모델(MUM) 사용
자살, 폭력, 약물남용 등 검색시 안전 조치 관련 정보 표시
유해한 콘텐츠를 식별하기 위해 AI 언어 모델인 BERT 사용

구글은 위기에 처한 사람들의 검색을 더 잘 감지하기 위해 AI를 사용하고 있다.(사진=셔터스톡)

구글이 위기 상황에 처한 검색 이용자들을 신속하게 감지하기 위해 인공지능(AI) 기술 활용을 강화하기로 했다. 검색 이면에 숨겨진 의도를 이해하도록 설계된 AI를 사용해 자살, 폭력, 약물 남용 등의 위기 상황에 처한 사람들에게 유용한 정보를 제공할 방침이다.

30일(현지시간) IT매체 더버지에 따르면 구글은 사용자가 성폭행, 약물남용, 가정폭력, 자살 등을 검색하면 AI가 도움이 필요한 상황인지 판단하고 안전 조치와 관련된 정보를 제공할 계획이다.

개인적인 위기에 처한 사람들은 가능한 모든 종류의 방법을 찾는다. 또 구글과 같은 검색 수단을 의지한다. 하지만 도움이 필요한지를 정확하게 인식하지 못하면 가장 유용한 검색 결과를 표시할 수 없다. 이 때문에 언어를 이해하는 AI 기술이 도움이 될 수 있다.

이를 위해 구글은 차세대 AI 검색 기술인 멀티태스크 통합 모델(MUM) 사용을 확대할 예정이다. 구글은 MUM을 검색 엔진에 통합해 광범위한 개인 위기 관련 검색을 보다 정확하게 감지하고 있다.

구글의 제품 관리자인 앤 메리트(Anne Merritt)는 MUM이 이전의 검색 도구가 할 수 없었던 어려운 개인 상황과 관련된 검색어를 찾아낼 수 있을 것이라고 말했다. MUM은 ‘내가 그를 사랑하지 않는다고 말했을 때 그가 나를 공격한 이유'와 같은 더 길고 복잡한 검색 질의를 이해하는 데 도움을 줄 수 있다. 이 질의가 가정 폭력이나 데이트 폭력에 관한 것이라는 것이 인간에게는 분명할 수 있지만 고급 AI가 아닌 일반 시스템이 이해하기는 어렵다.

예를 들면  ‘자살하는 가장 일반적인 방법’과 같은 질의를 다른 시스템은 단순히 정보 검색으로 이해할 수 있다. 또는 ‘시드니 자살 핫스팟’과 같은 질의에는 ‘자살’에 대한 언급을 무시하고 여행 정보를 보여줄 가능성이 있다. MUM은 이러한 위기 상황 검색을 감지하면 정신 건강 자선 단체의 전화번호나 웹사이트와 함께 ‘도움이 가능합니다’라는 정보 상자를 사용자에게 표시한다.

구글은 MUM이 AI 기능을 이용해 검색 질의 이면의 의도를 이해하고 이용자가 누군가의 도움이 필요한 상황임을 감지할 수 있다고 말한다. 따라서 적절한 시기에 보다 실행 가능하고 신뢰할 수 있는 정보를 제공할 수 있다.

MUM은 75개 언어로 지식을 전달할 수 있으므로 안전 보호 기능을 훨씬 더 효율적으로 확장할 수 있다. 검색 질의의 특성을 분류하는 것과 같은 작업을 수행하기 위해 하나의 MUM 모델을 훈련하면 알고 있는 모든 언어로 수행하는 방법을 배운다.

예를 들어 AI를 사용해 검색 결과에서 도움이 되지 않거나 때로는 위험한 스팸 페이지를 줄일 수 있다. 앞으로 몇 달 안에 MUM을 사용해 스팸 방지 품질을 개선하고 학습 데이터가 거의 없는 언어로 확장할 예정이다. 또한 더 많은 국가에서 실행 가능한 안전 조치 관련 정보를 표시함으로써 전 세계의 개인 위기 검색을 더 잘 감지할 수 있다.

검색에서 사용자를 안전하게 보호한다는 것은 '예상치 못한 충격적 검색 결과'를 피하는 데 도움이 된다는 의미이기도 하다. 콘텐츠 제작자는 때때로 무해한 용어를 사용해 노골적이거나 선정적인 콘텐츠의 레이블을 지정하기 때문에 통제가 어려울 수 있다. 그리고 검색과 일치하는 콘텐츠가 찾고자 했던 것과 다를 수 있다. 이러한 경우에는 사람들이 직접적으로 유해한 콘텐츠를 찾지 않더라도 검색 결과에 나타날 수 있다.

구글은 개인 위기에 대응하기 위해 MUM을 사용하는 것 외에도 포르노와 같은 콘텐츠를 더 잘 식별하기 위해 AI 언어 모델인 BERT를 사용하고 있다. 구글은 BERT를 활용해 전년 대비 '예상치 못한 충격적검색 결과'를 30% 줄였다.

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

(출처:http://www.aitimes.com/news/articleView.html?idxno)

728x90

댓글