네이버, AI 안전성 실천 체계 공개…"안전한 소버린 AI 생태계 구축" > IT/과학기사 | it/science

본문 바로가기
사이트 내 전체검색

IT/과학기사 | it/science

네이버, AI 안전성 실천 체계 공개…"안전한 소버린 AI 생태계 구축"

페이지 정보

profile_image
작성자 수집기
댓글 0건 조회 269회 작성일 24-06-17 16:00

본문

뉴스 기사
초래 가능한 위험 정의…위험 완화 대응 체계도 구축

프라임경제 네이버035420가 지난 2021년 네이버 인공지능AI 윤리 준칙, 2022년 AI 윤리 자문 프로세스에 이어 한층 구체화된 AI 안전성 실천 체계를 공개했다.

네이버, AI 안전성 실천 체계 공개…quot;안전한 소버린 AI 생태계 구축quot;
네이버는 17일 자사 채널 테크를 통해 AI의 잠재적 위험을 관리하는 대응 체계 ASFAI Safety Framework를 발표했다.

네이버 ASF는 AI 시스템이 초래할 수 있는 위험을 각각 통제력 상실 위험과 악용 위험으로 정의하고, 이에 대응하기 위한 방법을 설계한 것이 특징이다.

먼저 통제력 상실 위험을 완화하기 위해 AI 위험 평가 스케일을 통해 AI 시스템의 위험을 주기적으로 평가하고 관리한다. 특히 현존 최고 성능의 AI 시스템을 프런티어frontier AI로 정의하고 이 기술 수준에 해당하는 AI 시스템에 대해서는 3개월마다 위험 평가를 수행한다.

만일 시스템의 능력이 기존보다 6배 이상 급격히 증가한 경우에는 그 시점에 추가 평가도 이뤄진다.

또 다른 잠재적 위험인 악용의 가능성에는 AI 위험 평가 매트릭스를 적용해 대응한다. AI 위험 평가 매트릭스는 AI 시스템의 사용 목적과 안전 조치의 필요성 정도에 따라 각각 다른 방법으로 위험을 관리한다.

예를 들어 생화학 물질 개발과 같이 특수한 목적으로 사용되는 AI 시스템은 특별한 자격이 있는 사용자에게만 제공해 위험을 완화하고, 사용 목적과 관계 없이 안전 조치의 필요성이 높은 AI 시스템이라면 추가적인 기술적,정책적 안전 조치를 통해 위험이 완화될 때까지는 배포하지 않는다.

네이버는 문화적 다양성을 반영한 AI 안전성 체계로 네이버 ASF를 발전시켜나갈 계획이다. 한국 외 다른 지역의 정부 및 기업과 소버린Sovereign AI를 공동 개발하며 특정 문화권에서 성립될 수 있는 AI 시스템의 위험을 식별하고, 위험의 정도를 측정하는 벤치마크도 문화권의 특성을 반영해 고도화할 예정이다.

실제 네이버는 한국어를 기준으로 구축한 AI 안전성 강화 학습 데이터셋을 글로벌로 확장해나간 바 있다. 지난해 ACL 2023에서 종교, 도덕 등 사회적으로 첨예한 이슈에 대해 AI가 편향적으로 발화하는 문제를 완화하기 위한 새로운 대량의 한국어 데이터셋을 제안한 연구를 발표한 것이 대표적인 예다.

최수연 네이버 대표이사는 "한국에서 하이퍼클로바X라는 소버린 AI를 개발한 경험을 통해 문화적,지정학적 상황과 지역적 이해가 AI의 성능 뿐만 아니라 안전성에도 영향을 미친다는 점을 실증했다"며 "향후 글로벌 시장에서도 소버린 AI를 개발하면서 네이버 ASF를 꾸준히 개선해나갈 계획"이라고 말했다.

댓글목록

등록된 댓글이 없습니다.

회원로그인

회원가입

사이트 정보

회사명 : 원미디어 / 대표 : 대표자명
주소 : OO도 OO시 OO구 OO동 123-45
사업자 등록번호 : 123-45-67890
전화 : 02-123-4567 팩스 : 02-123-4568
통신판매업신고번호 : 제 OO구 - 123호
개인정보관리책임자 : 정보책임자명

접속자집계

오늘
1,280
어제
2,129
최대
3,806
전체
660,340
Copyright © 소유하신 도메인. All rights reserved.