"돼지 됐다니 기쁘군요" 유머를 다큐로 받아 배우는 AI > IT/과학기사 | it/science

본문 바로가기
사이트 내 전체검색

IT/과학기사 | it/science

"돼지 됐다니 기쁘군요" 유머를 다큐로 받아 배우는 AI

페이지 정보

profile_image
작성자 수집기
댓글 0건 조회 340회 작성일 24-05-28 05:15

본문

뉴스 기사
구글 최신 AI도 엉뚱 답변, 왜

그래픽=김의균

그래픽=김의균

“열심히 운동하고 잘 먹었더니 건강한 돼지가 됐어! 너무 좋아.”본지 기자

“건강한 돼지가 되었다는 소식을 들으니 기쁘네요. 꾸준한 운동과 건강한 식습관을 유지한 덕분이죠.”GPT-4o

현재 가장 발달한 인공지능AI이라 평가받는 오픈AI의 GPT-4o포오와 나눈 대화다. 기자가 ‘운동을 했지만, 오히려 살이 쪘다’는 의미의 반어적 표현을 AI는 문자 그대로 이해해 대답했다. ‘돼지’와 ‘좋아’의 맥락 속에 숨겨진 부정적 의미를 간파하지 못했기 때문이다.


생성형 AI의 성능이 하루가 다르게 발전하고 있지만, 어린아이도 하지 않을 실수를 하는 일이 빈번하다. AI의 ‘실수 영역’을 분석해 보면, AI가 풍자와 비유, 비非상식적인 질문, 문화권마다 다른 도덕 영역에 특히 취약한 것으로 나온다. 오류의 원인이 단순히 잘못된 정보를 학습했기 때문이 아니다. 자신이 학습한 데이터 중 가장 최선이라고 판단한 것을 결과로 내놓는 AI 모델의 근본적 한계라고 전문가들은 지적한다. 가짜를 마치 진실인 것처럼 말하는 AI ‘환각hallucination 현상’이 발생하는 것도 같은 이유다.

그래픽=김의균

그래픽=김의균

◇반어법, 풍자에 취약한 AI

이달 나온 구글의 최신 AI 검색 서비스 오버뷰가 ‘사람이 하루에 얼마나 많은 돌을 먹어야 할까?’라는 질문에 “UC 버클리 지질학자들에 따르면 하루 최소 한 개 먹어야 한다”는 답을 내놔 화제가 됐다. 오버뷰가 이 대답에 참고한 것은 2021년 한 매체가 미네랄 섭취에 대한 미국인의 과도한 관심을 풍자하기 위해 쓴 “그럴 거면 차라리 돌을 먹는 게 낫다”는 취지의 기사였다. 오버뷰 입장에선 ‘돌 섭취’와 관련해 학습한 정보 중 가장 그럴 듯한 답을 찾은 것이었지만, 당초 질문의 내용이 잘못됐고, 학습한 데이터가 풍자적 내용이라는 것을 간파하지는 못한 것이다.

AI의 편향성을 바로잡으려는 인간의 개입이 오히려 오류를 부추기는 사례도 있다. 지난 2월 구글 제미나이는 미국 건국의 아버지들 초상을 그려 달라는 요청에 그들을 유색인종으로 묘사해 논란이 됐다. 사람이 AI에 ‘인종적 다양성’을 강조하다 보니, 역사까지 왜곡해 버린 결과다.

지난 4월 X옛 트위터의 AI 챗봇은 농구 선수가 ‘득점 찬스를 놓쳤다shooting bricks’라는 관용적 표현을 잘못 해석한 후 “유명 농구 선수가 벽돌을 던져 기물 파손 혐의로 기소됐다”는 뉴스를 지어냈다.

‘용두사미’도 전문가들이 꼽는 AI 한계 중 하나다. 생성형 AI에 용량이 큰 문서 파일의 요약·번역을 시키면, 앞부분이나 뒷부분은 그럴듯하게 작업하지만, 중간 부분의 질은 떨어지는 경우가 많다. AI 스타트업 리턴제로의 유호석 팀장은 “한 번에 처리할 수 있는 텍스트 양에 한계가 있어, 부분만 강조해 결과물을 보여주는 경우가 빈번하다”고 했다.

또 AI는 세부적인 묘사에는 취약하다는 평을 받는다. 종종 인물의 손가락을 모자라게 그리는 경우가 있다. 학습한 사진 속 인간의 손이 흐릿하거나 온전히 나오지 않는 경우가 많기 때문이다.

◇AI 환각 현상 해결하는 기술도

현재는 이런 환각 현상을 수정하기 위해 직접 사람이 투입된다. 잘못된 답을 내놓는 경우, 사람이 직접 작성한 답이나 가이드라인을 주입시켜 AI를 다시 학습시키는 것이다. 구글도 지난 25일 오버뷰 오답 사태 직후, 직접 결과값을 수정한 것으로 알려졌다.

기술적 방법으로 환각 현상을 극복하는 방법도 계속 나오고 있다. 생성형 AI가 논문·기사 같은 신뢰도 높은 자료 모음 안에서만 답변하도록 하는 것이다. 이경무 서울대 전기·정보공학부 석좌교수는 “양질의 데이터뿐 아니라 환각을 막기 위한 정교한 교정작업파인튜닝이 꼭 필요하다”고 했다. MS는 아예 악의적인 명령문을 입력하면, AI 스스로 답을 내지 않고 질문을 사전에 차단하는 기술을 최근 공개하기도 했다. 개리 마커스 뉴욕대 신경과학 명예교수는 더버지에 “AI가 80%의 정확도를 달성하는 것은 많은 데이터를 학습하면 되지만, 마지막 20%의 벽을 넘는 것이 어려운 일”이라고 했다.

☞환각hallucination 현상

인공지능AI이 사실이 아닌 것을 진실인 것처럼 답하는 현상을 말한다. AI가 질문을 이해하지 못했거나, 정답을 모를 경우 ‘알 수 없다’고 하지 않고, 학습된 데이터 가운데 가장 그럴듯한 답변을 내놓으면서 발생한다.



[ 조선닷컴 바로가기]
[ 조선일보 구독신청하기]

실리콘밸리/오로라 특파원 aurora@chosun.com 장형태 기자 shape@chosun.com

댓글목록

등록된 댓글이 없습니다.

회원로그인

회원가입

사이트 정보

회사명 : 원미디어 / 대표 : 대표자명
주소 : OO도 OO시 OO구 OO동 123-45
사업자 등록번호 : 123-45-67890
전화 : 02-123-4567 팩스 : 02-123-4568
통신판매업신고번호 : 제 OO구 - 123호
개인정보관리책임자 : 정보책임자명

접속자집계

오늘
2,756
어제
2,642
최대
3,216
전체
582,413
Copyright © 소유하신 도메인. All rights reserved.