AI 핵심 요약
beta- LG AI연구원이 9일 텍스트와 이미지를 이해하는 엑사원 4.5를 공개했다.
- 복합 문서 이해와 추론에서 글로벌 모델을 앞서며 코딩·차트 분석 우수했다.
- 330억 파라미터로 효율 높이고 오픈소스 공개하며 피지컬 AI 확장 계획이다.
!AI가 자동 생성한 요약으로 정확하지 않을 수 있어요.
오픈소스 공개·모달리티 확장 추진…피지컬 AI로 진화 목표
[서울=뉴스핌] 서영욱 기자 = LG AI연구원이 텍스트와 이미지를 동시에 이해하고 추론하는 멀티모달 인공지능(AI) 모델 '엑사원(EXAONE) 4.5'를 공개하며 AI 경쟁력 강화에 나섰다.
LG AI연구원은 9일 '엑사원 4.5'를 선보이고, 비전 인코더와 거대언어모델(LLM)을 통합한 비전·언어 모델(VLM) 구조를 적용했다고 밝혔다. 이는 2021년 '엑사원 1.0' 개발 이후 축적한 기술을 기반으로 한 차세대 모델이다.
엑사원 4.5는 계약서, 기술 도면, 재무제표 등 산업 현장에서 활용되는 복합 문서를 이해하고 추론하는 데 강점을 갖는다. 실제 성능 평가에서도 경쟁력을 입증했다. 과학·기술·공학·수학(STEM) 5개 지표 평균 77.3점을 기록해 오픈AI GPT-5 mini, 앤트로픽 클로드 소넷 4.5, 알리바바 큐웬3를 모두 앞섰다.

일반 시각 이해와 문서 추론을 포함한 13개 지표 평균에서도 주요 글로벌 모델을 상회했다. 코딩 성능 지표인 라이브코드벤치 v6에서는 81.4점을 기록해 구글 젬마4를 웃돌았고, 차트 분석 성능 평가에서도 경쟁력을 보였다.
효율성 측면에서도 성과를 냈다. 330억 개 파라미터 규모로 기존 'K-엑사원'의 약 7분의 1 크기지만 텍스트 이해와 추론 성능은 동등한 수준을 확보했다. 이는 하이브리드 어텐션 구조와 멀티 토큰 예측 기반 고속 추론 기술을 적용한 결과다. 지원 언어도 한국어와 영어를 넘어 스페인어, 독일어, 일본어, 베트남어로 확대했다.
LG AI연구원은 이번 모델을 오픈소스 플랫폼 허깅페이스에 공개해 연구와 교육 목적의 활용을 지원한다. 앞서 '엑사원 3.0'을 오픈 웨이트로 공개한 데 이어 AI 생태계 확장 전략을 이어가는 행보다. 동시에 청년 AI 인재 육성 프로그램 'LG 에이머스' 해커톤에도 모델을 활용하며 교육 자원으로 활용하고 있다.
향후 LG AI연구원은 음성·영상·물리 환경까지 이해하는 AI로 확장할 계획이다. 엑사원을 기반으로 가상 환경을 넘어 현실 세계를 인식하고 판단하는 '피지컬 인텔리전스' 구현을 목표로 한다. 이를 위해 동북아역사재단 등과 협력해 한국어와 역사·문화 맥락을 반영한 데이터 학습도 병행하고 있다.
![]() |
LG AI연구원은 AI의 신뢰성과 안전성 확보에도 힘을 싣고 있다. 자체 위험 분류체계(K-AUT)를 기반으로 표현력과 안정성을 동시에 강화해 산업 현장에서 활용 가능한 AI로 발전시킨다는 방침이다.
LG AI연구원 관계자는 "엑사원 4.5는 멀티모달 AI로의 전환을 알리는 모델"이라며 "AI가 실제 업무 환경에서 판단하고 행동하는 수준으로 진화하도록 기술 개발을 이어가겠다"고 밝혔다.
syu@newspim.com













