[단독] "그렇다면 원하는 대로 만들어줄게"…삼성전자, MS·메타 맞춤형 ...
페이지 정보
본문
전용 AI칩엔 메모리에 연산 필수
요구에 맞게 설계 중
초당 2TB 속도 48GB 용량
내년 말 개발 양산 동시에
요구에 맞게 설계 중
초당 2TB 속도 48GB 용량
내년 말 개발 양산 동시에
삼성전자가 마이크로소프트MS와 메타에 맞춤형으로 공급할 고대역폭 메모리 ‘커스텀 HBM4’ 개발에 착수했다. 차세대 제품인 HBM4부터는 메모리 기능 뿐만 아니라 고객사 요구에 맞는 다양한 연산을 수행해야 하므로 ‘컴퓨팅 인 메모리CIM·Compute-in-Memory’로 불린다.
11일 반도체업계에 따르면 삼성전자는 현재 MS와 메타에 제공할 HBM4를 개발 중이다. 반도체 업체 관계자는 “MS는 마이아 100, 메타는 아르테미스라는 자신들만의 인공지능AI 칩을 보유하고 있다”면서 “삼성전자는 메모리사업부와 연산 칩을 직접 설계할 수 있는 LSI사업부를 갖고 있어, 이들 빅테크 기업들에게 최적의 파트너”라고 설명했다.
대다수 빅테크 기업들은 자체 AI 데이터센터를 보유하고 있어, 칩 구매비용을 줄일 필요성이 크다. 이들이 AI반도체 설계 기업인 엔비디아나 AMD가 개발한 AI 칩을 구매하면서도, 별도로 AI 가속기 칩을 직접 설계해 사용하는 이유다.
삼성전자는 HBM4 개발을 내년 말까지 끝낸 후 곧바로 양산에 돌입할 방침이다.
삼성전자가 이들 기업에 공급할 커스텀 HBM4의 세부사양은 알려지지 않았지만, 지난 2월 반도체 학술대회 ‘ISSCC 2024’를 통해 HBM4 사양스펙을 공개한 바 있다. 데이터 전송 속도인 대역폭은 HBM3E 보다 66% 증가한 초당 2테라바이트TB이고, 디램DRAM 단수를 16단으로 쌓아 올려 용량이 현재 36GB 보다 33% 늘어난 48기가바이트GB에 달한다.
반도체업체 관계자는 “HBM3까지는 발열 해결과 속도가 관건이었다”면서 “하지만 HBM4부터는 고객 요구에 맞춰 AI연산NPU이나 특정 데이터 처리 기능IP 등을 반영할 수 있는 역량이 더 중요해진다”고 설명했다. HBM을 16단으로 안정적으로 쌓더라도 단과 단 사이에 고객이 요구하는 특별 단인 ‘버퍼 다이’를 설계하고 삽입할 수 있는 능력이 필요하다.
트렌드포스에 따르면 전 세계 HBM 시장 규모는 올해 약 182억달러약 25조원에 도달한 뒤 내년에는 2.5배 커진 467억달러약 65조원로 성장할 전망이다. AI칩 설계 1위인 엔비디아가 차세대 그래픽처리장치GPU인 ‘루빈Rubin’을 2026년 양산할 계획이어서, HBM 채택을 놓고 경쟁이 더욱 치열해 질 전망이다.
▶ [단독] “이러다 한국 망한다”…사람도 돈도 미국으로 대탈출, 무슨 일
▶ “유령도시인 줄 알았다”…상가 무덤 된 이 동네, 앞으론 싹 바뀐다는데
▶ 오늘의 운세 2024년 11월 11일 月음력 10월 11일
▶ 김호중, 선고 앞두고 3차 반성문...검찰 “징역 3년6개월” 구형
▶ ‘13살 차이’ 정우성 신현빈 열애설 초고속 부인
[ⓒ 매일경제 amp; mk.co.kr, 무단 전재, 재배포 및 AI학습 이용 금지]
관련링크
- 이전글금감원 "무·저해지 보험 해지율, 예외모형 택하는 우 범하지 말라" 24.11.11
- 다음글삼성전자 또 52주 최저가…외국인 매도세 5만5천원까지 하락 24.11.11
댓글목록
등록된 댓글이 없습니다.