엔비디아의 625배 효율…뇌 닮은 토종 AI반도체 개발 > IT/과학기사 | it/science

본문 바로가기
사이트 내 전체검색

IT/과학기사 | it/science

엔비디아의 625배 효율…뇌 닮은 토종 AI반도체 개발

페이지 정보

profile_image
작성자 수집기
댓글 0건 조회 419회 작성일 24-03-06 12:01

본문

뉴스 기사
본문이미지
서울=뉴스1 김명섭 기자 = 정부는 오는 2047년까지 삼성전자와 SK하이닉스 등 민간 기업이 622조원을 투입하는 경기도 남부 일대 반도체 메가 클러스터 구축에 지원을 강화한다. 세계 최대 반도체 메가 클러스터 건설로 650조원 생산 유발 효과가 있을 것으로 보고, 인프라·투자 환경 조성, 반도체 생태계 강화, 초격차 기술 및 인재 확보 등을 지원한다. 사진은 17일 서울 종로구 대한민국역사박물관에서 관람객들이 대한민국의 반도체 기술 발전의 역사를 보고 있는 모습. 2024.1.17/뉴스1 Copyright C /사진=서울=뉴스1 김명섭 기자

국내 연구진이 초저전력으로 고성능을 내는 AI인공지능를 구현할 AI반도체를 세계 최초로 개발했다. AI반도체 시장을 장악한 엔비디아 A100 대비 소모전력은 625배, 칩 면적은 41배 작아 효율을 극대화했다. 속도는 단 0.4초만에 GPT-2 모델을 통한 언어 생성이 가능한 정도다.

과학기술정보통신부과기정통부는 KAIST한국과학기술원 유회준 PIM반도체 연구센터·인공지능반도체대학원 교수 연구팀이 400밀리와트mw 초저전력을 소모하면서도 0.4초만에 거대언어모델LLM을 처리할 수 있는 AI반도체 상보형-트랜스포머를 삼성전자 28나노 공정을 통해 세계 최초로 개발했다고 6일 밝혔다. 작은 AI 반도체 칩 1개만으로 GPT등 LLM을 구현할 수 있게 됐다.

연구팀은 인간 뇌의 구조와 기능을 모방해 설계한 컴퓨팅 시스템인 뉴모로픽 컴퓨팅 기술을 활용했다. 뉴모로팅 컴퓨팅은 뇌의 신경세포뉴런와 그 연결시냅스을 모방한 회로를 사용해 전통적인 컴퓨팅 시스템보다 에너지 효율을 높여 데이터를 처리한다.

연구팀이 활용한 건 뉴모로픽 컴퓨팅 기술 중에서도 스파이킹 뉴럴 네트워크SNN다. 실시간으로 복잡한 시계열 데이터를 분석하는 데 적합한 정보 처리 방식이다.

기존 뉴로모픽 컴퓨팅 기술은 이미지 인식, 비디오 분석 등 시각적 데이터 처리에 사용하는 딥러닝 모델인 합성곱신경망CNN보다 부정확하며 간단한 이미지 분류 작업만 가능했다. 이번 연구 논문의 제1저자인 김상엽 KAIST 박사는 뉴로모픽 컴퓨팅 기술의 정확도를 CNN 수준으로 끌어올리고 이미지 분류를 넘어서 다양한 응용까지 가능한 상보형-심층신경망C-DNN 기술을 지난 2월 미국에서 열린 국제고체회로설계학회ISSCC에서 처음 시연했다.

스파이킹 뉴럴 네트워크SNN와 심층 인공 신경망DNN을 혼합해 입력 데이터의 크기에 따라 서로 다른 신경망에 할당해 전력을 최소화하는 기술이다. 원리는 사람의 뇌와 비슷하다. 사람의 뇌는 생각할 것이 많을 때 에너지 소모가 많고 생각할 것이 적을 때는 에너지 소모가 적다. 컴퓨터도 입력값의 크기가 클 땐 전력을 많이 소모하지만 입력값이 적으면 소비 전력이 적다. 연구팀은 작은 입력값만을 SNN에 할당하고 큰 값은 DNN에 할당하는 식으로 전력을 효율적으로 활용할 방법을 찾았다.

이번 연구에선 김 박사가 지난해 발표한 상보형-심층신경망 기술을 LLM에 적용해 초저전력·고성능의 온디바이스 AI가 가능하다는 것을 실제 입증했다. 이는 그동안 이론적인 연구에만 머물렀던 연구 내용을 세계 최초로 AI반도체 형태로 구현한 것이다.

연구팀은 뉴로모픽 네트워크 기반 AI가 문장 생성, 번역, 요약 등과 같은 고도의 언어 처리 작업을 성공적으로 수행할 수 있는지 확인했다. DNN 구조를 SNN으로 변환하는 방법을 독자적으로 개발해 정보 처리 작업에 적용한 결과 기존의 에너지 효율성을 유지하면서도 정확도도 높일 수 있었다.

이를 통해 GPT-2 거대 모델의 약 708M개에 달하는 매개변수파라미터를 약 191M개로 줄였다. 기존 402M개 파라미터를 사용하던 번역용 T5 Text-to-Text Transfer Transformer모델에선 파라미터 개수를 76M개로 줄였다. 파라미터가 압축되면서 언어 모델의 파라미터를 외부 메모리로부터 불러오는 작업에 소모되는 전력이 약 70% 줄었다.

이는 AI반도체 기업 엔비디아가 개발한 A100 대비 전력 소모량을 625배만큼 줄이면서도 0.4초만에 GPT-2 모델을 활용한 언어 생성이 가능한 정도다. T5 모델을 활용한 언어 번역에는 0.2초의 고속으로 동작한다. 파라미터의 수를 줄이면서 초저전력 처리도 가능한 뉴로모픽 컴퓨팅을 LLM에 적용한 것이다.

연구를 이끈 유회준 교수는 "이번 연구는 기존 인공지능반도체가 가지고 있던 전력 소모 문제를 해소했을 뿐만 아니라 GPT-2와 같은 실제 거대언어모델 응용을 성공적으로 구동했다는데 큰 의의가 있다"고 말했다.

전영수 과기정통부 정보통신산업정책관은 "AI반도체가 NPU와 PIM을 넘어 뉴로모픽 컴퓨팅으로 발전할 수 있는 가능성을 실제로 확인했다"며 "대통령 주재 반도체 민생토론회에서 AI반도체의 중요성이 강조됐듯 앞으로도 세계적인 연구성과를 지속적으로 낼 수 있도록 적극적으로 지원하겠다"고 밝혔다.

[관련기사]
양준혁, 19살 연하 아내와 각방→각집살이…왜?
이혼 임원희 "호텔 결혼식 1500만원 적자…허세 비용"
외제차 박았는데…"이것도 인연" 오히려 밥 사준 여배우
감스트·뚜밥, 돌연 파혼…결혼 3개월 앞두고 "간극 못 좁혀"
돌싱 박은혜 "이혼 후 전남편과 호주 여행 다녀와"
최민수, 5억짜리 광고 거절한 사연…"이 조건 때문" 강주은 한숨
파출부 된 최강희, 송은이 집서 넉달째 청소…속옷 도난 의혹 해명
비트코인 1억 갈 줄 알았는데 폭락…관련주 일제히 하락세
[단독]NH농협은행 110억원 배임사고 발생…해당 직원 형사고발
"이 공무원 때문에 길 막혀" 민원인에 신상 털린 뒤…숨진 채 발견
엔비디아 뛰어넘는 AI반도체…국내 연구진이 만들었다
"주주들 좋겠네"…최대 실적 제약사, 현금 배당 20% 확 늘린다
이재욱과 열애 카리나 결국 자필 사과문…"팬들 실망 잘 알아"
안전바 풀린 롤러코스터, 승객 숨졌는데…"무료 개방" 안전관리 또 도마 위[뉴스속오늘]
[단독]아기 울음소리 끊긴 서울..거주 요건 없애 출산율 끌어올린다

박건희 기자 wissen@mt.co.kr

ⓒ 머니투데이 amp; mt.co.kr, 무단 전재 및 재배포 금지

댓글목록

등록된 댓글이 없습니다.

회원로그인

회원가입

사이트 정보

회사명 : 원미디어 / 대표 : 대표자명
주소 : OO도 OO시 OO구 OO동 123-45
사업자 등록번호 : 123-45-67890
전화 : 02-123-4567 팩스 : 02-123-4568
통신판매업신고번호 : 제 OO구 - 123호
개인정보관리책임자 : 정보책임자명

접속자집계

오늘
1,461
어제
2,079
최대
3,806
전체
695,744
Copyright © 소유하신 도메인. All rights reserved.