비르하네 "AI는 확률적 앵무새…약자에 대한 부정적 관념 강화" > IT/과학기사 | it/science

본문 바로가기
사이트 내 전체검색

IT/과학기사 | it/science

비르하네 "AI는 확률적 앵무새…약자에 대한 부정적 관념 강화"

페이지 정보

profile_image
작성자 수집기
댓글 0건 조회 451회 작성일 24-06-03 17:20

본문

뉴스 기사
아베바 비르하네 아일랜드 트리니티대 교수



오는 12일 열리는 제3회 사람과디지털포럼에서 기조연설에 나설 아베바 비르하네 아일랜드 트리니티대 교수는 인공지능 개발에 사용된 데이터 검증을 통해 ‘인공지능의 윤리의 새 지평을 열었다는 평가를 받는 인지과학자다. 현재의 인공지능 시스템은 유색인종·여성·약자에 대한 부정적 고정관념을 강화한다는 점을 밝혀내 2023년 미 ‘타임’의 ‘인공지능 100대 인물’로 선정되었다. 현재 유엔UN의 인공지능 고위급 자문기구 위원으로도 활동하고 있는 아베바 비르하네 교수를 방한에 앞서 전자우편으로 미리 만나보았다.






- 인지과학자로서 당신은 거대 규모의 데이터에 기반한 현재의 인공지능 개발에 기대보다 우려가 큰 것 같다. 당신이 보기에 인간 지능과 인공지능은 어떤 점에서 근접하며, 또 어떤 점에서 차이가 큰가?



“‘인간의 능력을 뛰어넘는 인공지능 모델’ 또는 ‘인간보다 더 나은 성과를 내는 모델’과 같은 표현이 종종 사용되곤 하지만 나는 인간과 인공지능을 비교하는 것은 사과와 오렌지를 비교하는 것처럼 무의미하다고 생각한다. 우리는 아직 인간의 인지가 무엇인지 완전히 파악하지 못했고, 기계 지능과 비교할 수 있는 단일한 인간 표준도 없다.”



- 인공지능이 가치와 상식을 지닐 수 있을까?



“인공지능의 상식에 대한 질문은 오래전부터 제기되어 왔다. 인공지능에 상식과 관련한 일부 기능을 투입하는 연구도 시도되었지만, 나는 여전히 기본 데이터를 되풀이하는 ‘확률적 앵무새’에 머물러 있다고 생각한다.
또한 인공지능의 가치는 개발자와 독립적으로 존재할 수 없으며 결국 그것을 만드는 사람들의 가치로 귀결된다. 나와 동료 연구자들은 2021년 ‘머신러닝 연구에 각인된 가치’ 논문을 통해 이러한 가치에 ‘성과, 고귀함, 일반화, 효율성, 규모’ 등이 포함된다는 것을 밝혀냈다. 이 가치들은 권력을 기술 기업에 집중시키며 정의와 공정성 등과는 대립한다.”



- 현재 인공지능 시스템은 구조적으로 유색인종·여성·사회적 약자 등에 대한 편견· 차별을 지닌다는 비판을 받는다. 당신은 데이터 분석으로 이를 밝혀냈는데.



“지난 수년 동안의 경험적 연구 결과들에 따르면 인공지능 시스템은 실패했고, 그로 인한 부정적 영향은 사회 주변부의 개인과 커뮤니티에 집중되고 있다. 나와 동료들은 대규모 학습 데이터 세트를 분석하면서 규모가 커질수록 혐오 콘텐츠와 인종·성별 고정관념도 증가한다는 사실을 밝혀냈다.”



- 당신 연구에 따르면 데이터 규모가 확장되면서 차별·편견·혐오 콘텐츠가 사라지지 않고 오히려 커지고 있다.



“규모의 확장은 머신러닝 분야에서 가장 중요한 가치 중 하나로, 수많은 문제에 대한 해결책으로 기대를 모았다. 다수의 논문은 “규모가 잡음을 압도한다”며 규모가 커지면 좋은 것, 나쁜 것, 추한 것이 균형을 이루어 “실체적 진실”에 더 근접할 것이라고 주장했다. 우리는 이 가설을 검증하기 위해 이미지와 텍스트 쌍으로 이루어진 두 개의 데이터 세트를 비교했는데, 샘플 규모가 4억개에서 20억개로 커질 때 혐오 콘텐츠의 양이 12%나 증가했다.”



- 인공지능이 백인·남성·서구의 부유한 집단 중심의 사고 방식을 확산하는 것에 대해 ‘디지털 식민주의’라고 비판했는데?



“인공지능 기술은 감시를 강화하고 불평등과 불공정을 심화한다. 또한 소수의 손에 권력을 집중시키며 백인 남성 등 주류의 가치관을 공고히 하는 경향이 있다. 서구에서 개발된 인공지능은 저개발국의 복잡한 사회·역사적 상황이나 가치·맥락을 고려하지 않고 해결책을 강요한다. “우리는 당신의 문제가 무엇인지 알고 있으니 우리 기술로 문제를 해결할 수 있다”는 식민주의적 사고방식이 뿌리 깊이 내재해 있다. 이러한 ‘디지털 식민주의’는 토착 기술의 발전을 저해하고 억압해, 권력 불균형과 불평등을 더욱 심화시킨다. 현지 주민들의 협의나 참여를 배제하는 기술은 토착의 문제를 해결하기에 부적합하지만 다른 선택지도 주어지지 않고 있다.”



2022년 10월 13일 인도 다람살라의 달라이라마 거소에서 열린 ‘상호의존성, 윤리 및 소셜 네트워크에 관한 마음과 삶의 대화’에서 아베바 비르하네가 인공지능과 빅테크 책임을 주제로 발표하고 있다. 출처 달라이라마 누리집

- 당신은 달라이라마와 만나 ‘빅테크의 책임’을 주제로 대담을 나눈 바 있는데?



“영광스럽게도 2022년 달라이라마와 만나 빅테크의 책임과 의무에 대해 대화를 나누었다. 우리가 직면한 가장 큰 문제는 빅테크가 지닌 막강하고 견제받지 않는, 전례 없는 파워와 영향력이다. 빅테크는 대중을 착취하며, 인공지능 관련 연구에서부터 정책·인공지능에 대한 대중 인식까지 결정하지만, 책임은 지지 않는다. 예를 들어, 구글은 검색창에 ‘인공지능 개요라는 기능을 도입했는데, 제공하는 정보가 매우 부정확하고 위험하다는 지적이 많다. 우울증 해결 방안으로 “하루에 적어도 한 개의 돌을 먹어라”, “피자 소스에 접착제를 넣으라”, “금문교에서 뛰어내려라” 등을 권유하는 식이다. 위험하고 무책임하며 기술에 대한 대중의 신뢰를 심각하게 훼손하는 행위다. 하지만 구글은 이 기능을 삭제하지 않았다. 책임을 물을 수 있는 규제 메커니즘이 없기 때문이다.”



- 유럽연합의 인공지능 법안, 바이든 미국 대통령의 인공지능 안전장치 마련을 위한 행정명령 등 빅테크 주도의 인공지능 개발 규제를 위한 다양한 시도가 이루어지고 있다.



“다행스럽게도 규제 논의는 조금씩 진전을 이루고 있다. 나는 규제 논의에서 빅테크를 배제해서는 안 된다고 생각한다. 빅테크의 이윤 극대화 추구 경향은 정의롭고 인간 중심적인 인공지능 개발과 상충하지만 진짜 문제는 규제 영역 전체를 지배하고 있는 점이다. 학계, 시민사회, 그리고 기술 피해자 등 이해관계자 집단이야말로 문제를 가장 잘 인식할 수 있는 집단이며, 이들의 목소리가 반영되어야 한다.”



- 인공지능이 빅테크의 이익이 아니라 일하는 사람들·약자들을 돕는 데 사용되려면?



“일하는 사람들의 이익과 복지를 위한 규제를 거듭 강조하고 싶다. 예를 들어 공격적인 데이터 수집, 다크 패턴으로부터 사람들을 보호하는 안전장치의 마련, 특정 기술이 시장에 출시되기 전 철저한 테스트를 거치고 거부도 할 수 있도록 해야 한다. 위반시엔 상당한 벌칙을 부과해야 한다.”



- 당신은 유엔의 인공지능 고위급 자문기구 위원으로서, 다양한 이해관계자가 갈등하는 상황에서, 유엔이 어떤 역할을 해야 한다고 보는가?



“현재 거버넌스 기구 중 유엔 인공지능 자문기구에는 산업계·학계·정부·시민사회 등 다양한 이해관계자가 참여한다. 이들의 견해와 가치를 잘 조정하고 대변하는 역할은 매우 중요하지만 어렵다. 주변부 사람들의 견해와 가치가 체계적으로 배제되거나 무시되기 쉽기 때문이다”



- 개발자들의 역할에 대해 조언한다면?



“기술의 대부분은 개인과 집단에 상당한 영향을 미치기에 개발자들은 데이터에 담긴 지식의 정치적 함의를 질문하고 비판적 인식을 지녀야 한다. 사회과학·인문학·시민사회 단체 등 여러 분야의 전문가와도 협력해야 한다.”



- 당신은 인공지능 개발에서 사람들의 ‘구체적인 삶의 경험’을 고려해야 한다고 강조하며 뉴질랜드 마오리족 커뮤니티의 사례를 든 바 있다.



“뉴질랜드의 마오리족 언어 기술 프로젝트는 실제 존재하는 문제를 해결하고 힘 있는 기업이나 개발자가 아닌 소규모 커뮤니티에 혜택을 주려는 사례로 관심을 끌고 있다. 이 프로젝트는 마오리족 언어와 문화를 보존할 목적에서 시작되었다. 마오리족은 영국 식민지 시대에 수치심과 체벌을 당하며 자신들의 언어 사용을 금지당했다.



뉴질랜드의 한 방송국은 마오리족 언어를 소생시키기 위해 커뮤니티 주도의 인공지능개발을 시도했다. 그 결과 마오리어에 대한 관심이 고조되면서 2018년 저신다 아던 뉴질랜드 총리는 출산한 딸의 중간이름에 마오리어로 ‘사랑’을 뜻하는 단어를 사용했고 큰 화제를 모았다 . 한겨레 자료 사진

한 방송사가 소멸해가는 마오리족 언어를 되살리기 위해 커뮤티니 원로들로부터 음성-텍스트 데이터를 수집했고 젊은 세대 교육을 위해 음성 인식 기술을 구축했다. 이 프로젝트는 디지털 호스팅 플랫폼을 구축하고 데이터 주권 규약을 수립해, 커뮤니티가 데이터와 기술에 대한 완전한 자율성과 통제권을 가질 수 있도록 했다. 서구의 패권에서 벗어나 지워진 역사를 복원하며, 현지 주민들의 지적 기여를 높이 평가하는 정의로운 기술이다.”



아베바 비르하네 교수는 포럼에서 ‘빅테크 주도 인공지능개발은 어떻게 편견과 불평등을 재생산 하나’를 주제로 기조연설을 한 뒤, 천현득 서울대 교수과학철학와 대담을 진행할 예정이다.



한귀영 사람과디지털연구소 연구위원 hgy4215@hani.co.kr



<한겨레 인기기사> ■

[단독] “샤넬, 은밀하게 전달만”…김건희 여사 “오시면 좋죠”

대통령실 “남북 9·19합의 전체 효력정지…군사분계선 훈련 가능”

윤 “포항 앞바다 석유·가스 140억배럴 매장 가능성…시추 승인”

최태원 “SK 성장사 부정한 판결…구성원 명예에 큰 상처”

KBS 경영평가보고서 ‘땡윤뉴스’ ‘윤비어천가’ 비판 대목 모두 지워져

포항 가스전 수익성? 증권가 “채굴 원가 경제성 불확실”

“어떻게 당대표실을 화장실 앞에…” 조국혁신당 ‘사무실 보이콧’

“지금쯤 땀에 다 젖었죠, 예전엔”…환경공무관 새 옷에 호평

‘여성 50% 공천 의무화’ 멕시코, 200년 만에 첫 여성 대통령

김호중 ‘인권침해’ 주장에 서울청장 “다들 경찰서 정문으로 나간다”

한겨레>


▶▶권력에 타협하지 않는 언론, 한겨레 [후원하기]
▶▶한겨레 뉴스레터 모아보기 ▶▶[기획] 누구나 한번은 1인가구가 된다

댓글목록

등록된 댓글이 없습니다.

회원로그인

회원가입

사이트 정보

회사명 : 원미디어 / 대표 : 대표자명
주소 : OO도 OO시 OO구 OO동 123-45
사업자 등록번호 : 123-45-67890
전화 : 02-123-4567 팩스 : 02-123-4568
통신판매업신고번호 : 제 OO구 - 123호
개인정보관리책임자 : 정보책임자명

접속자집계

오늘
1,739
어제
2,095
최대
3,806
전체
689,748
Copyright © 소유하신 도메인. All rights reserved.