새꿈마음 심리상담센터_이미지pc
새꿈마음 심리상담센터_이미지m

개)은 딥시크 R1(671B·

test 25-03-19 05:09 170 0

엑사원 딥(32B·매개변수320억개)은 딥시크 R1(671B·6710억개)의 5% 정도 규모인매개변수(학습 단위)만으로도 미국과 중국의 주요 AI 모델과 비교했을 때 우수한 성능을 보였다.


특히 한국어에 강점이 있는 엑사원 파운데이션 모델을 기반으로 하고 있어 2025학년도 수능 수학 영역에서 94.


더 적은매개변수(AI 연산 능력을 수치화한 지표)로 글로벌 빅테크가 개발한 추론 AI 모델과 비슷한 성능을 구현했다.


연제 첨단 광신프로그레스


‘딥시크 쇼크’ 이후 미·중 빅테크 간 추론 AI 성능 개선 경쟁이 불붙은 가운데, 국내 기술기업들도 일제히 추격에 나서고 있다.


LG AI연구원은 18일(현지시간) 미국 캘리포니아주.


● 딥시크보다 경량화하고도 비슷한 성능 LG AI연구원이 공개한 ‘엑사원 딥 32B’는매개변수가 320억 개로 딥시크 R1(매개변수6710억 개)의 5% 정도다.


하지만 AI가 발휘하는 성능은 비슷한 것으로 측정됐다.


매개변수는 뇌에서 뉴런을 이어주는 정보 전달망 시냅스와 비슷한 역할을 한다.


AI가 학습·추론을 할 때 데이터를 서로 연결해 주는 단위인매개변수가 320억개다.


매개변수는 많을수록 AI의 성능이 좋아지지만, 이를 구동하려면 그만큼 AI 반도체가 많이 필요하다.


이 때문에 최근엔매개변수를 최소화하면서 성능을 높이는 경쟁이 치열하다.


딥시크-R1은매개변수가 6710억개다.


파이4 멀티모달은매개변수(AI가 학습·추론 때 데이터를 서로 연결하는 단위)가 56억개에 불과하다.


이는 딥시크R1(6710억개)의 0.


MS는 “문서 이해, 표 해석, 과학적 추론 작업에서 탁월한 성능을 발휘한다”며 “낮은 컴퓨터 사양, 적은 비용이 특징인 만큼 산업 전반에서 활용되길 기대한다”.


엑사원 딥은 320억 개매개변수를 가진 ‘엑사원 딥-32B’를 비롯해 경량 모델 ‘7.


8B’, 온디바이스 모델 ‘2.


특히 엑사원 딥-32B는 딥시크 R1(6710억 개매개변수)의 5% 수준매개변수로도 글로벌 최고 수준 성능을 달성했다.


2025학년도 수능 수학 영역에서 94.


오픈AI, 메타 등은 최근 기존 모델보다매개변수가 적으면서 비슷한 연산 성능을 보이는 경량 AI 모델을 경쟁적으로 출시하고 있다.


샘 올트먼 오픈AI CEO(최고경영자)는 딥시크 쇼크 이후 폐쇄형 AI 모델인 챗GPT를 딥시크처럼 오픈 소스로 공개할 수 있다는 입장을 밝히기도 했다.


중국 팹4 간의 치열한 경쟁.


알리바바는 이 모델의 파라미터(매개변수)가 '딥시크-R1' 대비 5%에 불과하지만 성능은 유사하다고 설명했다.


텐센트의 AI 챗봇 '위안바오'는 딥시크를 제치고 최근 중국에서 가장 많이 다운로드된 아이폰 앱에 올랐다.


샤오미는 최근 지난해 실적을 발표하며 휴대전화 및 AIoT(인공지능과 사물인터넷.


알리바바는 이 모델의 파라미터(매개변수)가 '딥시크-R1' 대비 5%이지만 성능은 비슷하다고 주장했다.


이에 따라 알리바바 주가는 이날 장중 7% 넘게 상승했다.


또 텐센트(騰迅·텅쉰)의 AI 챗봇 위안바오는 딥시크를 제치고 최근 중국에서 가장 많이 다운로드된 아이폰 앱에 오른 바 있다.


‘엑사원 딥-32B(320억 개매개변수)’는 딥시크 R1(6,710억 개매개변수)의 5% 규모매개변수만으로도 미국과 중국 모델들과의 비교에서 우수한 성능을 보였다.


LG AI연구원은 글로벌 오픈소스 AI 플랫폼 허깅 페이스(Hugging Face)에매개변수가 다른 3가지 ‘엑사원 딥’의 논리적 사고력과 문제해결 능력을.

댓글목록

등록된 댓글이 없습니다.

높은상담만족도,TV출연,부부상담,아동청소년,우울증,뉴로피드백,트라우마

전화문자카톡로그인