Video Thumbnail 01:50:08
[스팟Live] *풀영상* "챗GPT 1/10 비용으로 사용"...LG, '엑사원 생태계' 최초 공개 | 25.07.22 LG AI 토크 콘서트 2025
22.9K
482
2025-07-21
#LG #AI #엑사원 #토크콘서트 #AI토크콘서트 뉴스핌TV '스팟Live'는 우리 사회의 이슈가 있는 현장에 독자와 시청자들을 대신해 달려가 생생한 정보를 그대로 제공합니다. 희망하는 취재현장은 언제든 제보해 주세요. 스팟Live가 달려갑니다~! ※제보 문의 : hyuna319@newspim.com※
자막

안녕하세요. LG AI 연권 이무영입니다. 예, 많은 분들이

현장에 참석해 주셨는데요. 어,이 자리에 어, 직접 참석해 주신 모든

분들과 그리고 온라인을 통해 시청하고 계신 모든 분들께 감사의 말씀을 먼저

드리겠습니다. 어 오늘은 LG AI 연구원의 연구 성과와 미래의 방향을

소개하는 2025년 어 LG AA 토크 콘서트를 시작하겠습니다.

[박수] 감사합니다.네

어 오늘 말씀드릴 아젠다는 LG AI 연구안의 과거, 현재, 그리고

미래입니다. LG AI 연구원의 여정으로부터

시작하여 엑사원 모델들과이를 기반으로 만들어지고 있는 AI 생태계 그리고

더 나은 미래를 만들어 가기 위해 추진하고 있는 AI 기술순으로 발표를

하고자 합니다. 네. 2025년 지금 우리는 AI와

함께 생각하고 일하고 살아가는 시대에 들어서고 있습니다.

인공지능은 우리의 삶과 산업을 바꾸는 핵심 기술이 되고 있습니다.

LGAI 연구원은 2020년 12월 설립된 이후 지금까지 누구도 가보지

않은 길에 도전하며 AI의 가치를 실현해 왔습니다.

저희가 지금까지 만들어 온 최초 그리고 최고의 순간들을 한번

되돌아보겠습니다. LG AI 연구원은 LG 그룹의 AI

역량을 높이고 최신 AI 기술을 연구하고 응용하여 산업 현장의

난재들을 해결하는 것을 목표로 설립이 되었습니다.

2021년 영어 독해 부분 어 인공지능 리더보드죠. 스쿼드

리더보드에서 1위를 차지하면서 저희의 경쟁력을 세상에 알리기

시작했습니다. 그리고 같은 12월에 국내 최초

멀티모델 모델 X41.0을 을 독자 개발해 어 파운데이션 모델의 첫걸음을

내디었습니다. 그다음 해인 2022년에는 세계

최초로 AI와 인간 디자이너가 협업한 작품을 뉴욕 패셔니크에서

선보였습니다. 그리고이 활동은 뉴욕 페스티벌

광고제에서 금상을 수상하면서 인공지능의 혁신성을 입증했습니다.

AI 혁신과 함께 신뢰성과 책임감 또한 매우 중요한 사항입니다.

그래서 저희는 2023년 국내 최초로 유네스코 AI 윤리 실행 파트너십을

체결하여 책임 있는 AI 개발과 활용에 앞장서고 있습니다.

2024년 국내 최초 오픈소스 모델인 X4원 3.0을 을 글로벌 공개하였고

한국 AI 역량을 널리 알리는데 크게 기여하였습니다.

올해 3월 공개 시점 기준 최고 성능의 출론 모델인 X41을

공개했습니다. 4월에는 X41 3.5가 5가

스탠퍼드 AI 보고서의 국내 AI 모델 중 유일하게 소개되었습니다.

그리고 생성형 AI 벤치마크인 빅잼 벤치를 개발하였는데 언어 인공지능

분야 글로벌 톱 파케 중 하나인 NAACL에서 최고 논문상을

수상했습니다. 지금이 순간 X4 모델은 전 세계에

공개되어 있고 국내 모델 중 최대 다운로드 횟수인 510만회를 기록하고

있습니다. 그리고이 파생 모델의 수는 200개

이상에 달하고 있습니다. 이처럼 LGA AI 연구원이 싸운

혁신은 산업 밸류체인에서 실질적인 가출을 창출해 나가고 있는데요. 그럼

이제 저희가 연구한 인공지능이 어떻게 현장의 문제를 해결하고 사업 경쟁력을

높여 왔는지 살펴보도록 하겠습니다. 어, 먼저 R&D 단계의 소재

개발입니다. 기존의 화장품 소재 개발은 구조

설계, 실험실 합성, 그리고 물성 시험의 프로세스를 수없이 반복해야

했고 긴 시간이 소요되었습니다. 하지만 신물질을 스스로 찾아내는 AI

X4원 디스커버리를 활용하여 4천만 건 이상의 물질들을 대상으로 해서

합성 결과물이 화장품에 필요한 물성을 갖추었는지부터 합성이 용이한지 그리고

어 그 유회 물질은 생성이 되지는 않는지까지 단 하루 만에 검토를 할

수 있게 되었습니다. AI가 소재 개발 속도와 효율을 크게

향상시키면서 연구 개발 패러다임을 바꾼 대표적인 사례라고 말씀드릴 수

있을 것 같습니다. 네.

다음은 제조 영역의 비전 검사 사례입니다.

비전 검사는 생산 과정의 제품 이미지를 보고 분량을 검출하는

기술입니다. 일반적으로 비전 검사 모델을 학습하기

위해서는 대규모의 분량 이미지가 필요하지만

실제 현장에서는 분량 데이터의 수가 많지 않기 때문에 분량 검출 정확도를

높이기가 매우 어렵습니다. 저희는 최소 수량의 분량 이미지만

학습하더라도 정확히 판별할 수 있는 AI

알고리즘을 개발하였고 결과적으로 기존 대비 정확도를 20%

이상 향상하여 연간 5,400만 달러를 절감하는 효과를

달성하였습니다. 또 다른 제조 인공지능 사례입니다.

고질적 난재로 꼽혀온 복잡한 석유학 원료 스케줄링 문제를 AI가 해결해

주고 있습니다. 어 입고 혼나 분해에 각 단계로

설계된 에이전트가 복잡한 스케줄을 스스로 최적화하고 결과적으로 AI가

제한한 스케줄만으로 100% 플랜트를 운영하는데 성공하였습니다.

그 결과는 한개 이익을 어 4% 개선하는 성업적 성과로 이어졌습니다.

마지막으로 말씀드릴 사례는 X4원을 고객 상담 시스템에 적용한 것입니다.

실시간 음성 인식과 자동 요약 그리고 상담 결과 관리 기능을 제공하고

있으며 고객 만족도와 상담사 생산성을 최대

20% 이상 개선하였습니다. 이처럼 LGAI 연구원은 산업 현장의

실질적인 가치 창출을 위해 꾸준히 노력해 왔습니다.

AI를 통한 생산성 향상과 사업적 가치 창출 효과는 매년 크게 증가하고

있으면서 앞으로도 또 지속적으로 도전과 문제 해결을 통해 더욱 가파른

성장이 기대됩니다. 저희는 지금까지의 성과를 넘어 향해

도약하고 있습니다. 어이를 위해서 다음 세 가지에

집중하고 있다고 말씀드릴 수 있을 것 같습니다.

첫 번째는 자체 파운데이션 모델 기반의 글로벌 경쟁력입니다.

지금이 순간에도 세계 곳곳에서 최신 AI 모델들이 쏟아져 나오고

있습니다.이 이 흐름 속에서 내제화된 기술 개발을

등한시하게 된다면 우리는 곧 기술 종속의 위기에 직면할 수 있습니다.

저희는 기술 독립을 넘어 글로벌 시장에서도 당당하게 경쟁할 수 있는

AI 모델을 만들어 가고 있습니다. 두 번째는 AI 모델 개발을 넘어

다양한 산업 현장 적용을 통해 범형성과 전문성을 모두 갖추어 가는

것입니다. 이것이야말로 LGA AI 연구원이

가지고 있는 가장 큰 경쟁력이며 타 기업과 가장 큰 차별점일 것입니다.

저희는 높은 범형성의 자체 파운데이션 모델을 다양한 산업 현장에 직접

적용해 왔습니다. 그리고 그 과정에서 파운데이션 모델의

전문성을 한층 끌어 올리고 실질적인 가치 창출로 이어가고 있습니다.

마지막으로 말씀드릴 사항은 파트너사와 함께 만들어 가는 AI 생태의

구축입니다. 여전히 많은 산업 분야에서 AI의

기술 혁신 가치가 충분히 실현되지 못하고 있습니다.

저희 LG는이를 혁신하고자 합니다. 그룹 내 생태계 적용을 넘어서서

대한민국 AI 활용 생태계를 주도할 것이고 앞으로 그 생태계를 더욱 키

키워가고자 합니다.이 이 생태계 구축이야말로

AI의 잠재력을 현실로 바꾸는 핵심 동력이라고 생각이

됩니다. 그리고 오늘 AI 토크 콘서트의 하이라이트라고 말씀드릴 수

있을 것 같습니다. 네. 제가 소개해 드릴 내용은

여기까지고요. 예, 지금부터는 이용랑님께서 최신 X4원 모델을

상세히 소개해 드리겠습니다. 박수로 보시겠습니다.

[음악] 안녕하세요. LG의 연구원

이홍락입니다. 이제부터는 최신 엑선 모델들을 소개해

드리겠습니다. 먼저 차세대 정밀 의료 AI 모델

엑ON패스 2.0입니다. 엑패스는 조직 병리 이미지 분석에

특화된 모델입니다.이 이 모델은 DNA RNA 정보를 담은 멀티오믹스

정보가 포함된 병리 이미지를 학습하여 별도의 유전자 검사 없이도 병리

이미지에서 특정 유전자 변의를 예측하고 찾아냅니다.이는

최대 2주까지 걸리던 유전자 검사 및 진단 시간을 단 1분으로 단축하여

환자에게 더 빠르고 정확한 치료를 제공할 수 있게 됩니다.

특히 이번에 공개한 엑사운 패스 2.0은 영은 기존의 패치 단위

분석을 넘어 슬라이드 전체를 학습할 수 있도록 개선되어 더욱 정밀한

예측이 가능하다는 것이 큰 차별점입니다.

엑선 패스 2.0은 폐암, 직장암, 유방암 등 병리 이미지 분석의 주요

벤치마크 10개에서 모두 우수한 예측력을 보이며 최고 평균 점수인

0.784를 784을 기록했습니다.이는

이전 모델인 1.0은 물론 프리즘, 타이탄, 유니 등 기존 강력한

모델들을 앞서는 결과입니다. 이처럼 엑패스 2.0은 명은 병리

진단을 위한 AI 모델 중 가장 높은 신뢰성과 정확도를 기록하고 있으며

Nv디아의 모나 플랫폼에도 탑재되어 지금까지 12,000권 이상 다운로드

했습니다. 실제 X4원 테스트 구독 영상을

보시겠습니다. 분석할 조직 경리 이미지를

입력합니다. 선택한 이미지에 대해 특정 유전자

변가 있는지 분석 과정을 거칩니다.이 과정은 보통 30초 정도 소요됩니다.

영상에서 포지티브가 의미하는 바는 특정 질환과 관련 있는 유전자의

발현량이 기준치보다 높다라고 판단된 것입니다.

전체 홀 슬라이드 이미지에서 포지티브라고 판단된 패치의 분포를

그래프로 표현해 주며 실제 병리 이미지상에 판단에 근거가 되는 부분을

붉은색으로 표시해 줍니다. 해당 부분을 자세히 확대하여 세포

수준에서 확인할 수도 있습니다. 지금 보여 드린 엑사 패스를 통해

암과 같은 치명적인 질병 치료의 혁신을 만들어 가겠습니다.

우리는 지금 또 하나의 도전적인 과제에도 착수하고 있습니다. 바로

다양한 상태로 존재하는 멀티스테이트 단백질 구조를 AI로 예측하는

연구입니다. 단백질은 우리 몸의 거의 모든 생명

활동에 관여하는 핵심 생체 분자인만큼이

기술은 신약과 치료제 개발 전반에 직접적으로 활용될 수 있는 핵심

기반이 됩니다.이 과제는 서울대학교 백민경 교수님

연구팀과 함께 진행하고 있으며 아쉽게도 백민경 교수님께서는 오늘이

자리에 함께하시지 못했지만이 연구의 의와 진척 상황을 영상으로 전해

주셨습니다. 함께 보시겠습니다.

>> 안녕하세요. 저는 서울대학교 생명과학부의 백민경입니다. 저는

생체분자의 구조와 기능을 예측하고이를 통해서 우리 생명 현상을 이해할 수

있는 인공지능을 개발하는 연구를 하고 있습니다. 어 사람도 쉬고 있을 때와

일하고 있을 때의 자세가 다른 것처럼 단백질도 쉬고 있을 때 그리고 기능을

할 때 구조가 다른 경우가 많습니다. 단백질의 멀티스테이트 다중 구조를

예측한다는 건 단백질이 쉬고 있을 때의 구조, 그리고 실제 기능을 하고

있을 때의 구조를 각각 정확히 예측하고이 구조 예측을 통해서이

단백질이 어떻게 기능하는가를 이해하는데 도움이 되는 연구라고 할

수 있습니다. 이러한 이해를 통해서 질병이 왜 일어나는지를 좀 더

정밀하게 이해할 수 있을뿐만 아니라 어 신약 개발을 할 때도 조금 더

이제 정확한 표적을 통해서 어 훨씬 약효가 좋은 신약 개발을 하는데

도움이 될 수가 있습니다. 네. 여러분들 모두 아마 노벨 화학상 어

작년 노벨 화학상 얘기를 들어 보셨을 텐데요. 작년 노벨 화학상을 받은

알파폴드는 사실 단백질의 정적인 단일 상태 구조밖에 예측을 하지 못합니다.

실제로 단백질의 기능을 잘 이해하기 위해서는 쉬고 있을 때 일하고 있을

때 구조를 모두 다 정확히 예측하는게 중요한데요. 저희가 목표로 하고 있는

건 단일 상태 구조가 아닌 다중 상태 구조 예측을 통해서 단백질을 좀 더

명확히 이해하 있습니다.이는 이는 아직까지 해결되지 않은 난재이고요.이

난재 해결을 통해서 우리가 당면하고 있는 많은 문제들 질병 치료나 아니면

더 나아가 우리가 원하는 기능을 할 수 있는 산업적 가치가 있는 효소

설계 등에 접목하려고 노력하고 있습니다. LG AI 연구원이 가지고

있는 어 대규모 생성형 인공지능 개발 경험 그리고이 개발을 통해서 얻어낸

또 AI를 어떻게 개발하고 유지하고 또 어떻게 디스트리뷰b 해야 되는가에

대한 경험들이 저희가 가지고 있는 생태분자 구조 예측, 기능 예측에

대한 전분성과 맞물린다면 저희 생명 현상을 이해하고 질병 치료의 획기적인

어 새로운 시작이 될 수 있는 인공 모델 개발에 더욱 시너지가 날 것이라

생각합니다. 입니다. >> 네. 감사합니다. 교수님. 이번

협업이 알파 폴드를 뛰어넘는 새로운 AI 혁신으로 이어질 수 있기를

저희도 기대하고 있습니다. 지난주 우리는 에이전틱 AI 시대를

향한 또 하나의 중요한 이정표를 세웠습니다. 바로 X41.0의

공개입니다. X41.0은 은 뛰어난 추론 즉

리즈닝 능력과 일반 언어 능력을 유기적으로 통합한 새로운 구조로

설계되었습니다. 고성능 32b 모델과 온디바이스용

1.2b 모델로 구성되어 있으며 이러한 기술적 진보를 통해 X1

3.5와 X1 D베이어 다시 한번 F AI의 노터블 AI 모델스에 등재되며

세계 최고 수준의 성능을 입증했습니다.

엑선 패스 2.0 명 또한 함께 등제되어 2025년 세계 엑사 모델을

올렸고 이로써 미국 중국에 이어 우리나라가 올해 세 번째로 많은

모델을 올린 국가가 되었습니다. X4원 4.0은 돈급 모델들 대비

압도적인 성능을 보여줍니다. 지시 수행 긴 컨텍스트 이해 영역뿐

아니라 리즈닝이 많이 필요한 수학 과학 코딩 영역 그리고 에이전트의

도구 사용 영역에서 모두 퀸 마파 매지스트랄 등 글로벌 주요 오픈

모델보다 높은 점수를 기록하며 거의 모든 항목에서 1위를 달성했습니다.

넥사온 4.0 32비 모델은 이보다 10배에서 20배 정도 큰 딥이나

코엔 235비와 같은 모델들과 고난이도 벤치마크에서 대등하게

경쟁하고 있습니다. 글로벌 오픈 모델 경쟁에서 최상 위에

위치하고 있다는 뜻입니다. 이러한 성능은 한국어에 집중하는 대부분의

국내 모델들과 다르게 영어 그리고 최신 고난도 벤치마크에서 비교를

했다는 점이 큰 차이가 있습니다. 모델 개발과 함께 우리는 공정하고 더

정확한 한국어 능력 평가를 위한 벤치마크를 개발하기도 했습니다.

KMMLU 저자와 함께 14개 직업군에 대한 능력 평가 벤치마크를

만들었고 X41.0은 명은이 중 여섯 개의 필기 시험이 합격하는 성과를

보여주었습니다. 우리는 이에 만족하지 않고 전체

직업군 대상으로도 지속적으로 높은 성능을 확보해 나가겠습니다.

X1 4.0의 1.2b 온디바이스 적용 모델은 또 다른 혁신의 성과를

보여주고 있습니다. 기존 X1 3.5 2.4B 모델의

절반 크기임에도 불구하고 글로벌 돈급 경쟁 모델들과 비교했을 때 전

영역에서 높은 성능을 보여주었습니다. 특히 각 분야에서 균형잡힌

퍼포먼스는이 모델이 온 디바이스에 탑재되어 실제 서비스 환경에서 즉시

투입 가능하다는 것을 보여줍니다. 특히 LG AI 연구원이 강조하는

에이전틱 AI 역량에 맞추어 파운데이션 모델의 능력을 더욱 확장할

수 있도록 MCP 및 다양한 에이전트 프로토콜을 지원합니다.

다국어 고난이도 벤치마크에서의 높은 성능과 MCP 프로토콜 지원은 엑선

모델의 가장 큰 차별점이라고 말씀드릴 수 있겠습니다.

오늘 우리는 새로운 엑사1 모델을 추가로 소개해드리겠습니다.

바로 X4.0 VL입니다. LG AI 연구원은 2021년 X1

첫 모델을 공개했을 때부터 멀티모델을 강조해 왔습니다. 하지만 멀티모델

모델은 내부에서의 활용에 집중하고 외부에 공개하지 않아 왔습니다. 오늘

선보이는 비전 랭귀지 모델 X4.0 VL은 탁월한 이미지 이해 능력을

가진 멀티모델 파운데이션 모델입니다. 일반적인 이미지를 이해하여 질리

응답하는 것은 기본이고 기존 이미지 이해 모델이 보여주지 못했던 복잡한

문서 이해 능력을 가지고 있습니다. 산업계에서 간절히 바라고 있는 AX

즉 AI 트랜스포메이션에 있어 가장 중요한 첫 단계이자 핵심 기능은 바로

기업이 보유한 방대한 내부 문서를 정확히 이해하는 것입니다.이는

단순히 텍스트 해석을 넘어 회화 차트 등 다양한 형식의 데이터를 함께

파악해 사용자가 원하는 인사이트를 제공하는 밑바탕이 됩니다.

넥사온 4.0VL은 비은 문서 내부의 차트와 인포그래픽 정보를 이해하는

성능이 모두 글로벌 최고 수준을 달성했습니다.

영어 기반의 차트, 문서, 그림 이해와 한국어 문서 이해 모두 최고

성능을 보여주고 있으며 일반 영역에서도 동급 이상의 모델들과

비슷한 수준의 성능을 보여주고 있습니다.

특히 차트에 대한 시각 및 언어 이해 능력을 평가하는 벤치마크인 차트

QA에서 글로벌 최고 성능을 달성했습니다.이는

방대한 어 기업 내 문서를 정확히 이해하고 분석하는데 필수적인 역향으로

데이터 기반 의사 결정을 뒷받침하는 강력한 도구가 될 수 있음을

의미합니다. 실제이 동작하는 사례를 보여

드리겠습니다. 좌측에 보시는 문서는 인터널 에너지

에이전스에서 발관한 월드 에너지 아웃 보고서의 한 부분입니다.

한 눈에 봐도 복잡한 그림과 그래프가 있는데요.이

문서를 대상으로 한국과 일본으로 얼마나 많은 석유가 호르무즈 해업을

통해 공급되냐고 질문해 보겠습니다. 문서 하단에는 여러 색깔별로 석유가

공급되는 물량을 표시하고 있는데요. 해당 이미지가 호르무즈 해업이라는

것을 인식하고 초록색과 연두색을 구분하여 한국과 일본에 공급되는

석유량이 420만 배럴이라는 것을 정확히 찾아냅니다.

문서 이해 능력이 놀랍지 않나요?이 이 모델은 곧 테크 리포트와 함께

공개될 예정입니다. 그럼 이상으로 엑사 모델에 대한

설명을 마치고 엑사 모델이 만들어 가는 서비스 및 생태계 소개를 위해

최정규님께 마이크를 넘기고자 합니다. 안녕하세요. LG 최정규입니다.

지금까지 엑사 모델을 중심으로 한 LG AI 연권의 기술력에 대해서

말씀드렸습니다.이어서 글로벌 최고 수준의 성능을 기반으로

실제로 구현되고 있는 다양한 서비스에 대해서 말씀드리겠습니다.

그리고 전략적인 파트너들과 함께 만들어 가는 X4원 생태계도 같이

보여 드리도록 하겠습니다. 첫 번째로 소개해 드릴 것은 기업내

업무 활용을 위한 엔터프라이즈 AI 서비스인 챗 엑사1원입니다.

챗 엑사1은 LG 그룹의 구성함과 함께 성장하고 있는 대표적인 워크

에이전트 서비스입니다. 올 3월에는 액선 딥 출론 모델과

함께 출론 강화 모드를 선보였고 올 5월에는 글로벌 빅테크 서비스에

수백불을 주어야만 사용할 수 있는 침층 리서치 기능을 동등 수준

이상으로 제공하고 있습니다. 이러한 우수한 기능에 힘입어 LG

그룹 전 사무직의 65% 이상인 5만 명 이상이 임직원들이 활발리 업무에

사용하고 계십니다. 또한 해외법인 자회사 등으로 사용자가

지속적으로 늘고 있는 상황입니다. 실제 사용자들의 PD을 한번 보시죠.

보안 측면으로 신뢰할 수 있기 때문에 대비 자료를 안심하고 사용할 수

있다. 국가별 규정 자료를 쉽고 빠르게 요약해 주어서 번역도 해 주고

업무 시간을 효율적으로 사용할 수 있다.

출론 프로세스를 보여주고 출처도 명확히 알려주는 심층 리서치 기능의

만족도가 매우 높다 등등과 같이 체득 사원의 우수함에 많은 긍정적인

피드백을 주고 계십니다. 넥사1원은 사용자 요청에 최적화된

결과를 내기 위해서 스스로 계획을 수립하고 수립된 계획에 따라서 서브

에이전트와의 협업을 관장하고 수행된 결과를 기반으로 최종 답변을내는

슈퍼에트와 밸류 체인별로 전문 특화된 테스크를

실제로 수행하는 서브 에이전트로 구성되어 있어서 진정한 멀티에트

시스템을 구현했다고 자부하고 국내에서 유일하다고 말씀드릴 수 있는

심층 리서치 모드를 조금 더 자세히 설명드리겠습니다.

글로벌 최고 수준의 출론 성능과 자체 RG 기술이 결합된 심층 리서치

모드는 보시는 바와 같이 사용자가 질문을 하면 자체적으로 사전 조사와

분석 판단을 통해서 사용자에게 이서치 방향을 확인합니다. 이렇게 확인된

리서치 방향에 따라서 하이레벨 계획을 수립하고 상세 실행 전략을

수립합니다. 이렇게 수립된 계획에 따라 실질적인

수행을 수행하고 액션을 수행하고 자체 평가를 통해서 사용자의 요구에 맞지

않는다고 판단되면 상세 실행 전략을 스스로 재수정해서 다시 실행하게

됩니다. 이렇게 실용을 통해서 사용자 요청에 맞는다고 판단되면 마지막으로

최종 보고서를 내게 됩니다. 이렇게 생성된 최종 보고서는 평균, A4,

용지 20장이 넘기 때문에 사용자 편의에 맞춰서 PDF나 워드로

다운로드도 가능합니다. 이러한 벤치 엔터프라이즈 에이전트의

성능을 평가하는 벤치마크를 잘 보신 적은 없으실 겁니다. 답변 충실도,

근거 타당성, 구조 일관성, 답변 스타일, 윤리적인 답변으로 평가하고

있습니다. 왼쪽 그래프는 최대 사원의 일반

답변과 심층 리서치 모드의 답변 성능을 비교한 것입니다. 모든

항목에서 일반 답변보다 훨씬 더 높은 성능을 보여주고 있습니다.

오른쪽 그래프는 최사안의 심층 리서치 기능을 글로벌 빅테크 서비스와 직접

비교한 것입니다. 거의 동등 수준으로 그 성능을 따라잡고 있으며 이러한

성능은 지속적으로 강화해 나갈 예정입니다.

챗 X4원은 엔터프라이즈 서비스 특성에 맞게 기업내 문서를 보완수

없이 사용 가능하다는 것이 가장 큰 장점입니다.

산업의 실제 문서를 참조하여 기획서 작성, 요약, 번역 등으로 손쉽게

활용할 수 있으며 개인별로 일일이 문서를 업로드 하는

것을 넘어서 팀 단위 또는 그 이상의 조직별로 공용 문서함을 지정할 수

있습니다. 산내 문서 시스템과 연관하여 연결하여

다량의 문서를 손쉽게 찾을 수 있고 사용자별로 접근화를 달리하는 기능도

구현이 완료되어 있습니다. LG 그룹에는 OLED, 배터리,

차세대 통신 규격 등 국가 핵심 기술로 지정된 산업이 많습니다.

체사와는 ISO 엔진을 통해서 이런 국가 핵심 기술 문서도 사용할 수

있는 높은 수준의 보완 규격을 갖추었습니다.

이러한 우수성 때문에 정부 기관이나 언론 등에서도이 서비스를 방문하여

사용해 보거나 촬영해 가는 등 많은 관심을 받고 있습니다만 아쉽게도 LG

그룹 내에서만 사용한다는 점에서 외부에서도 사용해 보고 싶다는 요청을

그동안 많이 봐왔습니다. 오늘 최대산 서비스는 드디어 오픈형

서비스로 그 발을 내습니다. 화면에 QR코드나 링크를 접속하시면 최대사원

베타 서비스를 접속하실 수 있습니다. 사원 베타는 일반 인터넷 환경에서

동작하며 PC뿐만 아니라 스마트폰, 스마트 패드에서도 접속하실 수

있습니다. 이제 LG 그룹 임직원뿐만 아니라

외부에서도이 링크를 통해서 사용 등록을 하실 수 있습니다.

체득사 베타는 웨이트 리스트를 통해서 운영하는 점을 참조 부탁드립니다.

최대한 많은 분들께 기회를 드리면 좋겠습니다만 운영 서버 환경을

고려하여 가입자를 확장하는 점 고려 부탁드립니다. 또한 개인 이메일이

아닌 기업 메일을 인해 통해 인증하고 우선권을 드리고 있으니이 부분 꼭

참조해 주시기 바랍니다. 많이 사용해 보시고 적극적으로 피드백을 남겨

주시면 큰 도움이 되겠습니다. 일반 사용자 대상으로 서비스를

공개한다는 소식에 이렇게 뜨거운 관심을 보여 주셔서 감사합니다.

그동안 XY는 또 다른 VC가 있었습니다. 바로 연구용으로만 공개된

모델 라이센이었는데요. X4.0

모델부터는 기존의 연구 및 학술 목적으로만 허여된 무상 라이센을

교육 기관으로 확대합니다. 이제 초, 중, 대학교 등에서 교육

목적으로 엑사원 4.0을 별도의 허가 없이 자유롭게 활용하실 수 있습니다.

교육 과정 설계, 해커던, 실습 수업 등 다양한 형태의 교육 활동에

엑사원을 활용하게 되어서 학생들이 최신 엑사 모델을 가까이 접해 볼 수

있을 것으로 기대합니다. 또한 LG AI은 허깅패스의 공식

파트너사인 프렌리 AI와 전략적인 파트너십을 체결하고 GPU 없이도

누구나 사용할 수 있는 X4.0 상용 API 서비스를 시작했습니다.

모델을 다운로드하고 서버 설치하고 파인튜닝하는 일은 전문가들만 할 수

있는 일이었습니다. 그리고 상용 목적을 활용하기 위해서는

LG 에아형과 라이센 계약을 별도로 맺었어야만 했었습니다.

이제부터는 여러 기관과 기업에서 엑산원 4.0 API를 손쉽게 업무에

적용하고 상용 서비스를 만드실 수 있습니다.

X4.0 API는 프렌 AI의 안정적이고 빠른 인퍼런스 환경 위해서

전 세계 개발자와 산업 현장의 API로 제공될 것입니다.

이런 협업을 위해 상세한 내용을 소개시켜 주기 위해서

먼 미국에 계시는 프렌들리 AI의 전병곤 대표님께서 선수 현장을 받아주

찾아 주셨습니다. 프렌리 AI 전병곤 대표님을 무대로 오십니다. 큰 박수로

환영 부탁드립니다. [음악]

[박수] >> 네. 안녕하세요. 프렌들리 AI 대표

전병원입니다. 먼저 LG AI 연권의 X41.0

영별 출시를 진심으로 축하드립니다.이 특별한 자리에서 프렌 AI와 LG

AI 연구원의 파트너십을 발표할 수 있게 되어 매우 기쁘게 생각합니다.

이번에 LG AI 연구원은 X1 4.0이라는 훌륭한 AI 모델을

개발했습니다. 하지만 아무리 뛰어난 AI 모델이라도

사용자가 실제로 활용하려면 추론 영어로 인프런스라는 과정이

필요합니다. 프렌 AI는 바로이 트론 서비스를

제공하는 회사입니다. 여기서 트론이란 사용자의 요청에 따라

AI 모델이 유용한 결과를 만들어내는 과정을 말합니다.

예를 들어가 X41에게 재밌는 얘기를 해 줘라고 요청하면

X41은 GPU를 통해 복잡한 연산을 수행하고 그 결과로 이야기를 생성하여

사용자에게 전달합니다. 바로이 과정이 출론입니다.이

출론 과정은 실제 서비스 환경에서는 매우 복잡해질 수 있습니다. 한번

상상해 보세요. 전 세계에 있는 수많은 사용자가 동시에 AI 모델에게

다양한 요청을 합니다. 기획서를 써 달라, 수백편의 논문을 요약해 달라,

어려운 확률 계산을 해 달라는 등 다양한 요청이 동시에 몰려옵니다.

게다가 사용자들은 모두 신속하게 결과를 받아보기 원합니다.

이처럼 많은 요청을 신속하고 안정적으로 처리하는 것이 바로 AI

출론 기술의 핵심입니다. 그렇다면 LG AI 연구원은 왜

프ly리 AI를 선택했을까요? 프렌 AI는 전 세계 최고의 AI

트론 기술을 보유하고 있기 때문입니다.

저희는 세계에서 가장 빠른 속도로 GPU에서 토큰을 처리합니다.

조단위의 토큰을 99.99%에 99%에 높은 가용성을 보장하면서요.

세계적으로 점명한 허깅 페이스도 바로 이러한 이유로 프렌 AI를

선택했습니다. 또한 현실적으로 중요한 문제는

비용입니다. 아무리 뛰어난 기술도 가격이

부담스러우면 사용하기 어렵겠죠. 프ly리 AI의 초론 기술은 연산에

필요한 GPU 개수를 크게 줄일 수 있습니다.

이런 프렌 AI 초론 기술과 엑사 모델이 만나 AI 서비스 사용을

획기적으로 낮췄습니다. 덕분에 X41.0을 을 최지T의

10분의 가격으로 이용하실 수 있습니다.

지금 보시는 장면은 X4.0이 실제로 작동하는 모습입니다.

이처럼 X4.0은 은 프ly리 AI의 초론 인프라 위해서 빠르고 안정적으로

작동합니다. 바로 오늘부터 X4을 부담없는

가격으로 이용하실 수 있습니다.이 이 자리를 빌려 LG AI 연권의

기술 역과 비전에 다시 한번 박수를 보내며 앞으로 프렌 AI를 통해서 더

많은 사용자들이 X41 사전형의 성능을 직접 경험하시길 기대합니다.

감사합니다. [음악]

>> 프렌리 AI 사회의 전병군 대표님 말씀 감사합니다. 경쟁력 가격일

경쟁력 있는 가격을 가진 API 서비스를 통해 더 많은 분들이 액산을

활용하여 서비스를 만들고 업무에 활용하시기를 기대합니다.

자, 이번에는 도메인 특화 모델을 만드는 파인 튜닝 단계로 넘어가게

넘어가 보겠습니다. 많은 기업들이 해당 산업이나 기업의

특화된 모델을 만들고 싶어 합니다. 이런 문제를 해결하기 위해 개발된

기업 내 도메인 특화 자동 생성 서비스인 엑사원 데이터 파운더리에

대해서 소개해 드리겠습니다. AI 기술을 기업 내에 적용하기 위해

가장 큰 문제는 특화 데이터 확보입니다. 기업 전형 모델 개발 시

학습에 필요한 충분한 데이터를 확보하기에 많은 시간과 인력이

필요하고 좋은 품질의 데이터를 확보하기

위해서는 외부 전문가를 고용하자니 기업의 핵심적인 데이터 외부 유출

등에 보안 이슈가 존재합니다. 엑셀 데이터 파운더리는 AI 기반의

데이터 자동 생성 및 평가 학습 플랫폼이며이를 통해 보안 이슈 없이

고품질의 대용량 데이터 확보가 가능합니다.

데이터 파운더리의 시원 영상을 보시죠.

실제 산업 현장에 문서을 지정하고 업로드하면

사용자들이 원하는 답변 스타일을 몇 번에 클릭으로 선택할 수 있습니다.

자동으로이 모든 셋을 기반으로 파인트닝

데이터셋을 만들어 줍니다. 이렇게 만들어진 데이터 셋은 원하는 품질로

생성이 되었는지 혹시 정보 누락이나 할루스시네이션이

발생하지 않았는지 자동으로 검토하고 그 결과를 보여 줍니다.

그리고 이렇게 만들어진 데이터 셋으로 바로 파인 튜닝을 진행할 수 있게

됩니다. 보시는 화면은 만들어진 데이터 셋으로

파인트링을 요청하는 화면입니다. 엑사원 데이터 파운디를 통해서

국민연금 공단의 문서에서 학습 데이터를 생성해서 모델을 학습한

사례입니다. 질문은 강의 근로 계약과 실제 강의

일정이 다른 경우 취득 신고세에 해당되는지에 대한 질문입니다.

3개월 이상 근로 계약이 존재하는 경우에는 실제 근로 기관과 관계없이

신고 대상이라는 것이 정확한 답입니다.

왼쪽은 누구나 다운받을 수 있는 X4 모델이고 오른쪽은 해당 기관의 문서로

튜닝한 모델입니다. 튜닝 전 모델은 실제 근로 제공

기간에 근거하여 취득 신고 대상이 아니라는 모답을 내었지만

데이터 파운드로 튜닝한 모델은 근로 계약서상 계약 기관을 근거로 취득

신고 대상이라는 정답을 내었습니다. 실제 국민연금 공단 측의 전문가 평가

결과 데이터 파운더리에서 생성된 데이터 품질과 튜닝된 모델의 정확도가

글로벌 경쟁 모델 대비 우한 것으로 평가되었습니다.

국민연금 공단 사례에서는 엑사운 데이터 파운드리로 튜닝한 엑사운

모델이 이전보다 25% 수준의 전문가 선호도 향상이 있음을 확인하였고

그 이외에도 특정 산업 특화 추론 테스크에서도 튜닝 이후 훨씬 높은

정확도를 보여준다는 것도 확인할 수 있었습니다.

이제 단순 모델 제공을 넘어 기업의 도메인 지식이 반영된 고성능 AI를

신속하게 구현하도록 지원하는 것이 엑사운 데이터 파운더리의 핵심

가치입니다. 데이터 파운 엑사운 데이터 파운디를

사용하기 전에는 도메인 전문가 60여명이 3개월 작업해서

2,200개만의 데이터를 생산할 수 있었는데 그마저도 사람마다 편차가

커서 그중 절반 정도를 버릴 수밖에 없었습니다.

엑사온 데이터 파운드를 사용할 경우 전문가 한 명이 34시간만 작업하면

11,000개의 데이터를 승할 수 있었고 균일하게 높은 품질의 데이터를

확보할 수 있었습니다. 이런 놀라운 자동화 기술은 qu리

제너레이션 엔서 제너레이션 그리고 엔서 이밸루에이터라는 여러 엑사

에이전트의 능력이라고 볼 수 있습니다. 엑사 데이터 파운더리

서비스는 데이터 생성을 넘어서 모델의 자동 튜닝까지 제공할 수 있도록

준비하고 있습니다. 앞으로 LG 계열사 및 파트너스를 통해서

고객분들을 만나보게 될 예정입니다. 다음은 보안 걱정 없이 기업 내부에

생성형 AI 서비스 적용을 가능하게 해주는 엑사원 온 프레미스 패키지에

대해서 말씀드리겠습니다. 오늘날 많은 기업들은 기밀 데이터를

안전하게 보호하면서 자체 시스템과 유기적으로 작동하는 전용 생성형 AI

시스템을 원하고 있습니다. 금융사, 지자체, 정부 기관들은 망분리를

통해서 외부 API 서비스를 사용하기 쉽지 않은 환경이라는 점 또한

고려되었습니다. 이러한 기업들의 니지에 대응하기 위해

LG고는 기업 내부에서만 운영 가능한 엄퍼런스 패키지를 개발했습니다.

원프런스 패키지의 적용 사례를 보여 드리겠습니다. 원프런스 패키지가

내부망에 설치되어 기존 인프라인 ERP나 문서디 DV와 연동됩니다.

이렇게 되면 사용자가 A 본부의 매출액이나 연평균 성장률 등을

질문하면 실시간으로 해당 정보를 찾아주거나 통계 분석과 같은 추가

작업을 진행합니다. 이러한 경영 정부는 기업 내 가장 중요한

데이터로서 외부 서버로 전송하기에 큰 부담이 있습니다.

그래서 우리는 산내에 독립된 원프레스 패키지 운영을 통해 한 층 더 높은

수준의 보안 수준을 달성해 나가고 있습니다.

X 온프레임 패키지는 최신 X 모델이 원활이 구동되도록 설계되었습니다.

업데이트를 위한 M러스 프레임워, 앞서 언급드린 데이터 파운더리, 문서

파스 등 다양한 툴을 지원합니다. 특히 최신 MCP, A 프로토콜 등

그리고 기업 내 레거 시스템과 연동할 수 있는 커스텀 프로토콜을 지원하는

것이 가장 큰 강점입니다. 앞으로 기업이 필요한 기능만 선택하면

맞춤형 패키지를 빠르게 구성하여 제공해 드릴 예정입니다.

또한 X4.0은 슬라이딩 어텐션 기법을 통해서 최대

128K 컨텍스트를 지원하며이를 속도 저하

없이 구현할 수 있는 전용 엑셀러레이터를 제공합니다.

이러한 편입성은 GPU뿐만 아니라 MPU 환경에서도 동일하게

지원됩니다. 우리는 이러한 표준화된 원플레

패키지를 통해 고객이 손쉽게 엑사을 활용할 수 있도록 돕고자 합니다.

엑산 온프랜스 패키지를 함께 고도하고 있는 파트너사 한 곳을 소개해

드리겠습니다. 엑사원의 전문성을 고성능 MP로

구현하고 있는 피료사 AI의 백준호 대표님을 모시고 양사가 함께 발전시켜

나가는 기술 혁신의 여정과 비전을 소개해 드리겠습니다.

AI의 백준호 대표님을 무대로 모십니다. 큰 박수로 환영

부탁드립니다. 시

>> 안녕하세요. 어 필요사 AI의 백준호입니다.

어, 오늘 이렇게 LG AI 리치와 필요사가 AI가 함께 협력 만들어낸

성과를 여러분께 소개드릴 수 있게 되어 어 매우 기쁘게 생각합니다.

어, GPU 대비 실질적인 경쟁력을 입정한 MPU 기반 온프레미스 풀스택

솔루션을 양사가 힘을 모아 성공적으로 개발해 낸 것은 글로벌 시장에서도

전례를 찾기 힘든 어 뜻깊은 성과입니다.

사실 양사의 협력은 이미 2년 전부터 준비되어 왔습니다. LG AI

리서치의 경영진과 실무진은 향후 AI 서비스가 더 높은 차별화된 가격

경쟁력을 갖추기 위해서는 AI 컴퓨팅을 효율을 획기적으로 개선할 수

있는 MPO 기업과의 협력이 핵심이라고 판단하셨고 동시에 한국

AI 생태의 조성을 위한 실정 배드로서의 역할도 기꺼이 감내하겠다는

확고한 의지를 보여 주셨습니다. 이러한 신념화에 AI 반도체 분야에서

어 국내를 선도해 온 저희 필요 AI와의 협력이 본격적으로 시작되었고

양산은 어 수시로 진행 사항을 공유하며 긴밀히 협업해 왔습니다.

저희 2세대 칩 레니게이드가 작년 8월 글로벌 무대에 처음 공개된 이후

LG AI 리서치는 가장 빠르게 초기 샘플 테스트를 시작했습니다. 이후

양사에 치열한 노력 끝에 올래 2월에는 X4원 3.0 7.8B 8

모델에 대한 성능 최적화 목표를 달성했고 원래 6월에는 엑사 3.5

32B 모델에 대한 성능 목표도 성공적으로 완수했습니다. 그리고 지금

양산은 소프트웨어 통합을 마무리하며 기업 고객을 위한 온프레미스 턴키

솔루션을 제공할 준비를 마쳤습니다. 성능 결과를 더 구체적으로

보겠습니다. 어 X1 3.5 32b 모델에서 인풋길이가 4K인

경우에 첫 토큰은 0.3초만에 초만에 나오고 초당 60개 토큰을 생성해 될

수 있습니다. 더욱 복잡한 분석을 위해 인풋 길이가 32K까지 늘어나는

경우도 첫 토큰은 35 4.5초에 나오고 초당 50개 토큰을 생성해내는

속도를 보여주고 있습니다.이는 X4원 온프레미스 패키지 솔루션이

요구하는 성능 조건을 충분히 충족하고 있습니다.

성능 요구를 우리가 충분히 만족한다면 가장 중요한 다음 지표는 전력당 성능

곧 어 에너지 효율입니다. 어 AI의 가장 근본적인 비용은 에너지 비용이며

동일한 성능을 더 적은 전력으로 달성할 수 있다면 AI 서비스를

운영하는 전체 비용 역시 그만큼 절감됩니다.

레니게이드는 목표 성능을 달성한 상태에서 온프 온프레임에서 사용되는

GPU 대비 2.3배 이상의 에너지 효율을 보여주고 있습니다.

S1 온프레임 풀색 솔루션을 지원하기 위해 피료스 AI의 서브

어플라이언스는 여덟 개의 레니 그게를 카드를 탑재해 초당 4페타플랍스의

연상 성능을 구현하며 총 384GB의 HBM 메모리와 12T바세에 달하는

메모리 대역폭을 제공합니다. 또한 전력 소문은 경쟁 제품 대비 현저의

낮은 3kW 수준에 불과합니다. 어 앞으로 양산은 현재 준비된 X41

온프레미스 풀스 솔루션의 기능과 성능 효율을 지속적으로 고도화해 X41

원프레임 터키 솔루션을 국내 고객들에게 빠르게 확산해 나갈

계획입니다. 앞으로도 좋은 성과로 어 보답드릴 것을 약속드리며 지금까지

믿음을 가지고 함께 협력해 주신 LGI 리치 팀께 다시 한번 깊이

감사드립니다. 감사합니다. [음악]

>> 백준호 대표님 말씀 너무 감사합니다. 너무나 멋진 여정인 거 같지

않습니까? 필요사 MPU가 장착된 서버 패키지는

전시부스에서 살펴볼 수 있으니 많은 관심 부탁드립니다. 어느덧 제 발표도

마지막으로 가고 있습니다. LG가 만들어 가고 있는 엑사원 생태에

대해서 말씀드리겠습니다. LG 양고는 각학 분야에서 경쟁력을

갖춘 파트너들과 함께 전략적인 협력 체계를 구축하여이를 기반으로 실용성과

확장성을 가진 AI 생태계를 만들어 가고 있습니다.

지난 15일에는 X4.0 공개와 더불어 국내 22곳 몇 분의 파트너사

분들과 X41 파트너스 데이를 진행했습니다. 하드웨어 공급,

소프트웨어 개발, 모델 튜닝, 솔루션 제공, 컨설팅까지 폭 넓게 엑사원을

활용하여 기업 내부 문제 해결에 실질적인 도움을 주는

파트너사들입니다.이 이 자리에서는 LG 계열사와의

실질적인 산업 적용 사례 과정에서 발생한 많은 애런을 공유하고 모델

공급을 넘어서 꼭 필요한 기술을 솔루션 형태로 제공하는 엑사1원

중심의 AI 생태계 활성화 방안이 논의되었습니다.

앞서 보여 드린 많은 서비스와 솔루션들이 우리의 소중한 전력적

파트너 사들을 통해 고객에게 제공될 것입니다.

오늘이 자리에서는 새로운 도메인의 엑사을 활용되는 사례를 하나 보여

드리고자 합니다. LG 연구는 시계열 예측 기술을 오랜

연구해 왔습니다. 계열을 사회 상품에 대한 수요 예측이나 원자재 가격 유측

등에 대한 활용을 넘어서 2023년에는

크래프트사와 공동 개발한 AI ETF 상품을 뉴욕 증권 거래소에 상장시킨

LQI 사례는 많이 들어보셨을 겁니다. LQI는 상장 이후 S&P

500보다 더 높은 수익성을 달성하면서 많은 주목을 받아왔습니다.

우리는 여기서 멈추지 않고 시계열 데이터에 뉴스, 기업 보고서 등

다양한 비정형 데이터를 활용하여 시계열 예측 기술을 더욱 고도해

나가고 있습니다. 그리고이 기술은 런던 증권 거래소

LSG와 함께 기업의 재무적 인사이트를 자동으로 만들어내는 마스터

스코어를 개발해 나가고 있습니다.이 자랑스러운 협력사 사례를 소개해

주시기 위해서 LSG의 알만 사업위치 박사님이 현장을 찾아주셨습니다.

닥터비치 please come to the 스페age 큰 박수를 맞이하여

주시기 바랍니다. [음악]

안녕하세요. Good morning

stock exchange group as mark new chapter

in our partnership. with LG AI

researchoration shared mission

transform how data AI empow the world

top investors. Now Else is a global

financial markets infrastructure and

data leader. We serve over 44,000

customers in 170 countries with more

than 26,000 colleagues

worldwide. In 2024 we generated

almost 9 billion in revenue about 11.3

billion USD. Our business spends

five pillars capital markets,

post trade, data analytics, F Russell

and risk intelligence.

With refinitives integration in 2021

and our 2023 AI alliance with

Microsoft we have sharpened focusing

vast data into actionable

intelligence better investment

decisions. Now why did we

choose LGAI research as a partner? First

complementary strengths. Elsec

curates deep clean data.

LG brings advanced forecasting, natural

language processing and the kind of

scientific and computational power

traditional finance often lacks.

Second synergy elsalized in

scientific research op the door to rich

collaboration with LGAI scientists.

Third, client demand.

Investors today want more than just raw

data. They want signals they can

trust, understand and use. This

partnership delivers just that.

So what are we building with LGAI

research? At its core, this is an AI

powered inside as a service. Elsec

brings premium multiasset financial

data. LGAI research

contributes cutting edge AI forecasting,

multilingual language models and

deep research expertise.

Together we delivering forward

looking explainable insights that

clients can act on immediately.

Now our joint product is the AI

master score with commentary.

The master score is a one to 100 signal

forecasting the four week directional

return of an asset. A score of 50 or

below suggests a likely decline. 51

or above signals a potential rise. It's

simple, intuitive, and fits into any

investment workflow. The commentary is a

human readable explanation

generated by LGAI language models. It

highlights key drivers like earning

surprises or sentiment shifts

behind the score. Together they bridge

the gap between black box AI and

transparent decision ready inside.

Now what sets the master score apart?

First, it's AI engine. LG's deep

learning models are fused with LSEX

realtime pricing, fundamentals, and

macro data plus unstructured inputs

like news and filings.

Second timeliness, both the score and

the commentary update new daily

incorporating over 5000 news articles.

Third, explainability.

Natural language commentary makes the

score understandable and actionable

coverage we cover the entire US equies

market from large caps all the way

down to nano caps across all

industries using TRBC standards

and finally delivery it's a seamless

delivery via API b feeds and integrates

into client systems and we're just

getting started. Here's what's next.

Horizon flexibility will add one week

tactical and 12 week strategic versions

to match different investment styles.

As a class expansion we plan to extend

coverage to commodities, bonds,

crypto and private markets.

Factor decomposition will break down the

score into macro sentiment and

ideeper insight.

financial in closing the

master score commentary captures

essence of our partnership

LG's cutting edge AI meets L6 trusted

data to deliver decision ready

insight to the world's most

demanding investors. truly excited to

bring this innovation to the

market together. Thank you so much

for your time, your partnership and your

belief in the future of data driven

investing. 감사합니다. [박수]

[음악] Thank you for your

great talk. LSCG만 사업이치님 말씀 너무 감사합니다.

AI powered insight as a serv 너무 못진 용어이지

않습니까? 앞으로 기업의 중요한 의사 결정들이 AI에서 이루어질 것으로

기대합니다. 앞으로의 협업이 너무나 기대됩니다.

오늘 정말 많은 서비스와 솔루션을 소개해 드린 것 같습니다. 오늘

발표한 많은 내용들은 여기 계신 분들이 기사로 작성하심과 동시에

우리의 홈페이지나 유튜브에도 기록이 남을 것입니다. 하지만이를 다시

보시고 직접 채어보고 싶은 마음도 끄실 것이라고 생각합니다.

우리는 액사원 생태기를 보대 보다 자세하게 알아보실 수 있도록 LG에

연구의 모든 결과물을 체험해 보실 수 있는 X4원 쇼룸을 만들었습니다.

X4원 쇼룸을 통해 LG 에아 연구의 기술과 서비스를 빠르고 쉽게 알아보실

수 있습니다. 일부 서비스는 트라이를 통해 직접 사용오실 수 있고 다른

서비스들은 편하게 문의하실 수 있는 참구가 될 것입니다. 그리고 시범

서비스는 최신 모델 개발에 따라서 지속적으로 업데이트하고

확대해 나가겠습니다. 많은 관심 부탁드립니다.이어서

이용단님께서 LG AI 연구원의 미래에 대해서 말씀드리겠습니다.

감사합니다. [음악]

최정님 감사합니다. 어느덧 토크 컨서트가 마지막 세션에

진입하였습니다. LG AI 연구원이 만들어 가는 AI

미래에 대해서 잠시 소개해 드리겠습니다.

많은 사람들이 그리는 AI 발전 로드맵입니다.

생성형 AI 시대를지나 에이전틱 AI 시대에 초입에 왔다는 평이 많지요.

AI가 사람의 지시를 얼마나 잘 따르고 실행하는지를 넘어 AI가

스스로 계획하고 판단하며 의사 결정에 주도적으로 도움을 주는 시대가

다가오고 있습니다. 그리고 그다음은 AI가 직접 물리적

세계와 상호 작용하고 실제 환경에서 작업을 수행하는 피지ic컬 AI의

시대라고 말하곤 합니다. LG AI 연구원은 생성형 AI

시대에 엑사 파운데이션 모델을 단계적으로 발전시켜 다양한 산업에서

실질적인 가치를 창출하는 핵심 동력으로 키워왔습니다.

특히 앞서 소개한 엑사원 4.0 4.0VL 그리고 패스 2.0은 모델

개발의 확장을 보여주는 대표적인 성과입니다.

우리는 이들을 통해 범형성과 전문성을 한층 강화하며 에이전틱 AI 시대의

기반을 탄탄히 다지고 있습니다. AI는 이제 단순히 창작을 넘어서

스스로 판단하고 행동하는 능동적인 존재 즉 에이전틱 AI로 지나고

있습니다. 에이전틱 AI는 사용자의 목표를

이해하고이를 달성하기 위한 행동 계획을 스스로 세우고 실행합니다.

업무 특화 에이전트인 체사원이 스스로 계획하고 전략을 수립하며 직접

실행하는 모습을 앞서 보여 드렸습니다.

다음으로 현재 개발 중인 에이전틱 AI의 사례를 하나 더 소개해

드리고자 합니다. 인공지능 분야에서 데이터

컴플라이언스는 매우 중요한 이슈입니다. 많은 분들이 아시다시피

AI 기술의 빠른 발전과 함께 AI 모델 훈련에 사용되는 데이터와 관련된

저작권 분쟁 사례가 크게 증가하고 있기 때문이죠.

LGA AI 연구원은 학습 데이터의 신뢰성 확보를 위해 18개의 법률

체계에 근거하여 데이터 사용의 적법성과 적절성을 평가하고

있었습니다. 다만이 복잡한 법률 검토 프레임워크는

사람이 검토하는 경우 정보의 양 때문에 한계가 있을 수밖에 없습니다.

특히 새로운 데이터셋이 만들어질 때 기존의 데이터셋을 소스로 활용하여

파생되는 경우가 많기 때문에 문제는 더 복잡해집니다.이는 이는 데이터셋

간의 수많은 의존 관계를 만들어 내는데이 모든 연관 관계를 추적하고

관련된 모든 데이터에 대한 법적 검토를 진행하는 것은 현실적으로 매우

어렵습니다. 그래서 우리는이 문제를 해결하기 위해

데이터 컴플라언스 에이전트인 넥서스를 만들어 운영하고 있습니다.

넥서스의 세 가지 에이전트는 데이터셋 간의 복잡한 의존 관계를 깊은 웹

탐색으로 어 추적하여 데이터 출처와 라이선스 정보를 조사하고 관련된 모든

데이터셋에 대해 검토를 진행하며 마지막으로 전체 정보를 총괄하여 법적

점수와 등급을 산출합니다. 넥서스를 통한 학습 데이터 저작권

검토는 인간 전문가가 진행하는 것보다 26% 더 정확하고 45배나 더

빠르며 비용은 1분로 절감되어 진행됩니다. 그렇기 때문에 대규모

데이터셋에 대한 법적 검토가 경제적으로 실행 가능하게 되었습니다.

이러한 혁신적인 시스템은 AI 기술이 더 안전하고 책임감 있게 발전하는데

중요한 역할을 할 것입니다. 이런 에이전틱 AI의 진화는 곧 현실

세계를 바꾸는 기술 바로 피지ic컬 AI로 이어지고 있습니다.이 단계의

핵심은 AI가 판단을 넘어 물리 환경에 직접 작용하는 실행력입니다.

센서 로보틱스 엣지 컴퓨팅과의 윤압을 통해 AI는 실제 공간에서 움직이고

측정하고 제어할 수 있는 존재로 변화하고 있습니다. 예를 들어 스마트

팩토리에서는 AI가 생산 일정을 스스로 조정하고 설비를 제어하며

산업의 효율성과 안전성을 동시에 혁신하고 있습니다. 피지ic컬 AI는

AI가 현실을 인식하고 판단하며 실제 환경을 바꾸는 최종 진화 단계입니다.

우리는이 단계로의 발전을 위해 지속적으로 노력하고 있습니다. 곧

이런 기술 성과에 대해서도 말씀드릴 수 있는 자리를 가질 수 있기를

바랍니다. 자, 그러면 지의 응답에 참여하시는 LG AI 연구원의

리더분들을 자리로 모시도록 하겠습니다. 큰 박수

부탁드리겠습니다. [음악]

네. 여러분께서 바라보시는 방향을 기준으로 왼쪽에 앉아 계신 리더분부터

소개하도록 하겠습니다. 먼저 바이오 인텔리전스 랩을 맡고 계신 이순영

랩장님이십니다. [음악]

사원 랩을 맡고 계신 이진식 랩장님이십니다.

[음악] AI 에이전트 그룹을 맡고 계신

최정규 그룹장님이십니다. 공동 연구원장겸 CSAI를 맡고 계신

이홍락 원장님이십니다. [음악]

공동 연구원장을 맡고 계신 이무형 원장님이십니다.

AI 사업 개발 부문을 맡고 계신 이화영 부문장님이십니다.

[음악] 전략 부문을 맡고 계신 김유철

부문장님이십니다. [음악]

서비스 개발 부문을 맡고 계신 전기정 부문장님이십니다.

아, 네. 본격적인 지의 응답 시작에 앞서 사전에 기자분들께서 보내 주신

질문 가운데 공통된 질문에 대한 답변을 먼저 드리고 진행하고자

합니다. 아, 제가 질문을 읽어 드리면 앞에 계신 리더분들께서 답변해

주실 예정입니다. 사전 질문은 총 다섯 가지입니다.

첫 번째 질문입니다. 짧은 간격으로 X41 세 모델을 계속 공개해 왔는데

단기간에 성능 업그레이드를 할 수 있었던 배경이 무엇인지 궁금합니다라는

질문입니다. 아,이 질문에 대한 답변은 이진식 랩장님께서 해

주시겠습니다. >> 네. 사실은 오늘 새벽에도 한 가지

모델이 출시가 됐는데요. 사실 거의 날마다 AI 모델이 나올만큼 그 AI

기술의 그 발전과 트렌드가 굉장히 변화 속도가 빠릅니다.이

변화를 선도하고 그다음에 저희가 차별하기 위해서는 시장과 고객의

피드백을 받아서 개선하는 작업을 계속해야 되는데요.이를 이를 위해서

저희가 모델을 자주 배포하고 그다음에 빠르게 피드백을 받아서 모델을

개선하고 지속적으로 경쟁력을 확보하는데 활용하고 있습니다.

네. 다음 질문입니다. X41.0의 성능이 글로벌 경쟁을 할만큼

올라왔습니다. 구체적으로 협력할 기업들과 대상들이 추려진 상황인지

궁금합니다라는 질문입니다.이 질문에 대한 답변은 이화영 부문장님께서 해

주시겠습니다. 네. 오늘 엑사1.0, X1 VL

X패스 2.0 공개드렸고 그다음에 모인 스페시픽한 데이터를 잘

생성할 수 있는 데이터 파운더리 이걸 전체 패키징한 온프레미스 솔루션

그리고 API로 연결하는 것까지 다 사례를 말씀드렸고요.이 이 내용을

보시면 아시겠지만 국내에 있는 다양한 기업들이이 엑사원들을 많이 요청을

하고 계셔서 국내에 있는 기업들이 경쟁력을 가지고 그 AX를 통해서

경쟁력을 만들어 내고 글로벌 무대에서 다른 경쟁사들과 경쟁할 수 있도록

만들어 드리는 역할을 저희가 앞으로 LG CNS와 U로스 같은 B2B

비즈니스를 하는 기업과 같이 수행을 하려고 하고요. LS 사례에서

보셨겠지만 아직은 대한민국이 조금 약한 산업 분야. 뭐 바이오라든가

파이낸스 분야 이런 분야는 저희 AI 모델을 또 그 해외 파트너사들과

적극적으로 협업해서 글로벌레에 있는 기업들이 모두 엑사원을 통해서 새로운

가치를 만들어 갈 수 있는 것들을 준비하고 있습니다.

다음 질문입니다. 하이브리드 AI 구현에 필요한 핵심 알고리즘과

아키텍처가 모두 자체 개발인지 궁금합니다. 해외 기술을 의존한

부분이 있다면 알려 주시기를 부탁드립니다라는 질문이었습니다.

아,이 지문에 대한 답변은 이진식 랩장님께서 해 주시겠습니다. 네,

하이브리드 AI 관련해서 답변드리겠습니다.

하이브리드 AI 모델인 X 4.0 같은 경우에는 저희가 X산 3.5

개발하면서 그 사용자의 일반적인 다양한 그 질문을 이해를 하고 답변을

생성하는 어 일반 모드랑 그다음에 엑사온 딥을 통해서 저희가 개발한 그

고난이도 추론이 필요한 문제 고난이도의 문제를 이해하고 답변을

생성하는 그 두 가지 추론 모드와 일반 모드를 통합한 모델입니다.

그래서 각각의 장점을 어 살려서 어 만든 하이브리드 AI 모델이고요.이

기술이 저희 LG 연구원에서 개발하고 있는 핵심 기술이 되겠습니다. 그래서

구현에 필요한 핵심 알고리즘이나 그다음에 시스템 아키텍처를 만들기

위한 데이터 생성 반법론 같이도 저희가 어 기반 기술 저희가 자책

기술로 갖고 있다고 보시면 되겠습니다.

다음 질문입니다. 엑사1원이 앞으로 어떻게 활용되는지 향후 목표나 계획

등이 궁금합니다라는 질문이었습니다. 아이 질문에 대한 답변은 이무영

원장님께서 해 주시겠습니다.네 네. 뭐 AI가 정말 급속도로 많은

발전을 하고 있는데요. 뭐 저희도 여러 가지 고민을 하고 있습니다.

오늘 뭐 뭐 보셨겠지만 이제 저희가 에이젠틱 AI, 피지컬 AI 이렇게

계속 발전을 시켜 나갈 계획으로 가지고 있고요. 어 특히 X 모델은

어 지금 여러 가지 그 응용 분야에서 활용할 수 있는 에이전트 모델에 어

조금 더 집중을 해 가고 있는 상황입니다. 에이전트 모델이라고

하면은 에이전틱 AI라고 하면은 뭐 AI가 스스로 이제 추론을 하고

어려운 문제를 해결해 나가고 어 그리고 이제 데이터를 취득하거나 어떤

뭐 정보를 취득함에 있어서 사용자가 일일이 다 입력하지 않더라도 어 이런

물리 세계 혹은 사이버 세계와 인터페이스를 하면서 스스로 정보

취득을 해서 발전을 할 수 있는 그래서 결과적으로 우리가 필요로 하는

테스크를 수행할 수 있는 어 그러한 AI로 만들어 가기 위해서 저희가

어, 여러 가지 노력을 하고 있습니다. 네.

자, 마지막 사전 질문입니다. 소벌린 AI 개발에 대해 어떻게 생각하시는지

궁금합니다라는 질문이었습니다.이 질문에 대한 답변은 김유철

부문장님께서 해 주시겠습니다. AI 기술과 생태계 확보 경쟁은 단지

기업들만의 이슈가 아니라 현재 국가 경쟁, 국가간의 경쟁으로 확대가 되고

있습니다. 성능 좋은 모델 대체제와 자체적인 생태계가 없이는 이런

종속성이 심해지고 도태될 가능성이 큽니다. 그런 차원에서 어 자체적인

생태의 확보는 필수적이라고 생각합니다.

네. 이상으로 사전 질문에 대한 응답을 마치고 본격적인 지의 응답을

진행하도록 하겠습니다. 질문을 원하시는 기자분은 잠시 뒤에 손을

들어 주시면 저희 스텝이 마이크를 전달해 드리도록 하겠습니다.

질문하시기 전에 소속 회사와 성함을 먼저 말씀해 주시면 감사하겠습니다.

네. 그럼 지금부터 질문 받도록 하겠습니다.

네. 두 번째 줄 앞에 계신네 기자님께 마이크 전달 부탁드립니다.

>> 예 안녕하세요. 오늘 발표 잘 들었습니다. 헤러드 경제 김민지

기자입니다. 어 우선 두 공동 원장님께 어제부로 어 신임되신 거

굉장히 축하드리고요. 질문 먼저 드리고 싶은데요. LG 그룹의 AR

싱크 탱크를 이끌게 되신 포부나 목표에 대해서 각자 한 분씩 말씀해

주시면 감사드립니다. 그리고 두 번째 질문은 엑사원 생태계를 기반으로 AI

모델이나 서비스를 이제 외부 대상으로 B2B 사업화하겠다는게 이번 발에 좀

중요한 골짜인 거 같은데요. 향후 외부 대상 매출 발생 시점이 언제일

것으로 예상하시고 목표 매출이 있으신지 궁금합니다. 뭐 단기적으로

수정이 어려우시다면 장기적인 목표라도 좀 말씀해 주시면 감사드립니다.

>> 네. 네. 예, 질문 주셔서 감사합니다.

어, 우선 뭐 저희 AI 연구원 어, 초대 원장이셨던 백경원 원장님께서

이제 장관 치임을 하셔 가지고 굉장히 저희로서 이제 정사스럽게 생각을

하고요. 저와 이제 이용님이 어, 함께 공동 원장을 맡게 되었는데 뭐

지금과 크게 다르지는 않을 거라고 생각을 합니다. 저희가 계속 만들고

있는이 AI 기술을 지속적으로 발전시키고 실제로 어 그냥 기술

확보만에 그치는 것이 아니라 오늘 여러 가지 사례들을 보여 드렸듯이 어

실제 이제 산업 현장에 적용해서 사업적인 가치를 만들고 하는 것이

저희가 AI를 하는 어 그러한 목표가 되겠고요. 특히나 이제 LG 그룹

내에 여러 계열사들 어 계열사들의 AI 역량을 향상시키고 저희 LG

그룹이 AI 트랜스포메이션 하는데 저 저희 AI 연구원이 어 가장 큰

역할을 하려고 어 고민을 계속 하고 있습니다. 예. 어 그리고 뭐

사업적인 목표 관련해서는 뭐 이따가 예 이호화형님께서 한번 말씀을 해

주시면 좋을 것 같습니다. >> 예. 저도 어 이렇게 공동 원구

원장을 맡게 돼서 정말 영광스럽고 또 부담스럽기도 합니다. 이무님과 같이

힘을 합쳐서 LG AI 연구원이 글로벌 최고로 나갈 수 있도록

노력하겠습니다. 특히 저희가 개발하고 있는 여러 가지

뭐 X4원 기반의 원천 기술들을 정말 세계 최고 수준으로 발전시키고

이것들이 어 산업에 정말 특화해서 계열사에 활용되고 또 새로운 신상신

신신성장 동력을 발굴해 나갈 수 있도록 노력하겠습니다.

네. 질문 주셨던 매출에 대한 부분은 제가 좀 설명드리도록 하겠습니다.

사실 매출은 지금도 뭐 작지만 조금은 발생을 하고 있고요. 근데 저희

LGI 연구원이 왜 이런 활동을 하는지 이해하는게 좀 우선적일 것

같습니다. 저희 미션은 크게 두 가지인데 하나는 LG 계열사들의 AX

트랜스포메이션을 빨리 가속화하고 앞당기는 것이고 또 하나는 LG 그룹

차원에서 AIR을 가지고 새로운 사업을 만든다면 어떤 사업이 가능할

것인가를 태핑하고 그거의 가능성을 보는 것까지가 LG AI 연구원의

메인 미션입니다. 아시다시피 저희는 ABC라고 그래서 AI 바이오클린테크

영역에서 적극적으로 신사업을 발굴하고 있는데 그런 AI를 가지고 할 수

있는 사업은 이런 AI 기술들을 B2로 좀 패키징해서 판매하면 좋지

않을까? 그게 LG AI 연구의 직접적인 매출로 연결되는 것도

중요하지만 우리 그룹 계열사 중에 CNS나 U플러스는 이미 B2B

사업을 하고 있고 엑사온 가지고 수한 금액이 제가 알기로는 1천억대가

넘어가는 걸로 알고 있습니다. 그런 사업을 좀 더 가속하는게 하나 있을

거고 오늘 발표드린 LSG를 통해서 글로벌 금융 파이낸스 쪽에 AI

기술을 공급하고 데이터 에저 서비스 인사이트 에저 서비스로 새로운 사업을

한다면 이게 얼마나 빨리 스케일업이 가능할 것인가? LG 그룹이 이런

AI 기반으로 데이터 사업을 한다면 사업이 가능할 것인가? 그리고 엑사원

패스 2.0에서 소개드린 것처럼 바이오 영역에서 특히 임상 시험

영역에서 신약 후보 물질 발굴 영역에서 생명하기가 협업하든가 아니면

유럽과 미국의 거대 제약사들하고 협업을 한다면 이런 분야의 새로운

사업을 어떻게 만들어 갈 것인가를 탐구하고 있는 것이 훨씬 더

중요하다. 이렇게 말씀드릴 수 있을 것 같습니다.

네. 다음 질문 받겠습니다. 아, 네. 저 오른쪽에서 두 번째 줄

맨 앞에 계신네 손 흔들고 계신 기자님께

>> 예 안녕하십니까 저는 KPI 뉴스의 김윤경 기자라고 합니다. 오늘이

자리에 참석하게 돼서 매우 유익하고 즐거운 시간 보내고 있는데요. LG

AI 연구원의 지금까지의 성과도 놀랍고 오늘 생태계 확장을 위해서

개방을 결단하신 것에 대해서도 무한한 박수를 전달하고 싶습니다. 그런데 한

가지 우려스러운 점이 좀 있습니다. 그 서비스 모델도 그렇고 기업도

그렇고 인지도를 높이는 작업은 주도권 확보에서 매우 중요하다고 생각을

합니다. 근데 우리는 지금 AI라고 하면 최지T나 뭐 엔트로 클로우드나

이런 것들을 많이 생각을 하고 어 AI 연구원은 그에 좀 못 미치지

않나는 생각을 해요. 물론 목적이 달라서 그들은 B2C이고 여기는

산업용 AI를 지향한다라고 얘기를 했지만 그럼에도 불구하고 아직은 좀

더 노력해야 될게 많지 않은가 생각을 하는데요.이를 이를 해결할 계획이나

구상 이런 것들은 어떻게 가지고 계신지 말씀해 주시면 고맙겠습니다.

>> 네. 형님 뭐 제가 간단히 우선은 말씀을 드리자면은네

저희는 뭐 아직까지는 일반 대중들을 상대로 뭐 인지도를 높이거나 하는

것에 저희 이제 그 주 목표를 두고 있지는 않습니다. 저희가 실제 말씀하

말씀드린 것처럼 LG LG 그룹의 AI 트랜스포메이션을 통해서 LG

그룹을 한 단계 더 성장시키는 것이 저의 주이기도

하고 특히 이제 AI 기술이 여기에 가장 큰 역할을 할 것이라고 생각해서

집중을 하고 있습니다. 물론 그럼에도 불구하고 이제 말씀하신 것처럼

아무래도 이제 결국에는 이제 사업적인 성과로 연결이 되어야 하기 때문에

인지도라는 것을 무시할 수는 없습니다. 그래서 오늘 말씀드린

것처럼 뭐 MPU 프리오사와 협업, 뭐 프렌드리 AI 협업, 뭐 LSGI

협업 등등을 이제 만들어 가고 있다고 보시면 되고요. 뭐 글로벌까지는

아니더라도 적어도 이제 국내에서는 뭐 산업 인공지능 하면은 이제는 다들

LG를 말씀하고 계시지 않을까라고 믿어봅니다. 네.

그 뭐 추가로 이와영성께서 말씀해주시면 좋네

>> 부연 설명을 좀 드려 보도록 하겠습니다. 고객한테 가치를 제공하는

방법은 크게 두 가지가 있는 거 같아요. 구글처럼 이미 B2CB

서비스를 하고 있는 회사가 AI를 더 레버리지 해 가지고 고객한테 직접

가치를 전달하는 방법이 있을 거고 LG처럼 B2B 기업에다가 그 AI를

접목을 해서 그 안에 있는 도메인 전문가들이 훨씬 더 생산성을

극대화시킴으로 인해서 그 만들어진 산출물이 다시 고객한테 전달되는 이런

방법이 있을 것 같습니다. 저희는 전자보다 후자가 훨씬 더 저희한테

경쟁력이 있고 그거는 저희의 근간이 다 LG 그룹으로 이루어져 있고 그

안에 있는 많은 계열사들이 그런 활동을 하고 있기 때문에 그거에 대해

굉장히 좀 빠르게 잘할 더 훨씬 더 오픈 AI나 뭐 구글보다 더 잘할 수

있을 거라고 생각을 하고요. 두 번째로는 이게 이제 그러면 LG

구름만 할 거냐 아니면 우리 국가 경쟁력을 생각해서 뭐 자동차 회사,

선박 회사 이런 쪽에다 다 확대 적용할 거냐에 큰 결심에 있어서 오늘

솔루션으로 공개드린 것처럼 우리 대한민국 기업들이 해외 경쟁사와

경쟁을 할 때 이런 싸원을 활용해서 하면 훨씬 더 경쟁력을 가질 수 있지

않을까 이런 생각을 했고요. 근데 아직 대한민국이 좀 취약한 산업 영역

아까 말씀드린 파이낸스나 뭐 제약이나 이런 부분들은 글로벌 회사들하고 서로

협을 해서 그쪽 제약 도메인에 굉장히 큰 경쟁력 신장을 가져오고 생산성

혁대를 가져온 다음에 그걸 다시 한국 시장 쪽으로 또 가져오면 또 우리

국내에 있는 기업들 또 LG에 있는 기업들이 훨씬 더 잘 될 수 있지

않을까 그런 생각으로 준비를 하고 있습니다.

앞에 두 분께서 잘 말씀 주셨는데 저도 추가 말씀드리자면

인지도라는 것은 어떤 의미에서는 최고 성능에서 나온다고 생각합니다. 그래서

저희는 이미 글로벌 최고 오픈 모델들과 동등하게 경쟁한 수준에

이르고 있고요. 앞으로도 더 발전시켜서 정말 어 누구든지 어 오픈

모델을 활용할 때 엑사을 어 1순위로 활용할 수 있도록 정말 최고 수준으로

끌어 올리고 발전시켜 나가겠습니다. 네. 다음 질문 받겠습니다.

아, 네. 앞에 네. 시사전환 이코노미의 고명훈

기자라고 합니다. 그 LGI 연구원이 엑선 그동에 지금까지 국산 반도체

활용을 좀 적극적으로 추진했었는데 뭐 오늘 백전호 대표님도 나와 주셨는데

그 퓨리오사 AI 레니게이드 활용한지 좀 2년 정도 지났습니다. 그 당시

처음 협업 발표하시면서 그 가격 경쟁력이 생기면 충분히 사용 여지가

있다고 LG에서도 이렇게 말씀 주셨는데 어 실제 2년 써 보니까 좀

GPU 쓸 때 대비해서 비용 절감 효과는 좀 얼마나 되는 것으로

내부에서 파악하고 계신지 또 내부에서 어떻게 평가하시는지 궁금하고 아까

백준호 대표님 발표하실 때 온프레임미스에 사용되는 GPU 대비

에너지 효율 성과가 2.3배 3배 이상 됐다라고 말씀 주셨는데 이제

검증 수준에 넘어서 좀 상용화 수준으로 갔다고 봐도 될지 좀

여쭤보고 싶습니다. >> 네.

>> 네. 그 좋은 질문 감사드립니다. 저희가 한 2년 정도 이제 협업을

했는데 그 초기에는 어 레니게이드 제품이 아직 그 상품화가 되기

이전부터 어 협업을 진행을 했던 거고요. 저희는 저희 엑사 모델도

계속 발전을 시켜 왔고 그 MPU도 레니게이드 이전 모델도 있었고 그

지금 현재 레니게이드 칩셋도 있는데 레니게이드로 저 그 전환 그 발전을

시켜 가면서 같이 이제 발전을 하면서 서로 논의를 많이 했고요. 저희

엑사원 기술에 필요한 그런 요구 사항들을 어 필요사 AI에 많이 이제

좀 공유를 드리고 어 필요사에서는 그것을 맞추기 위해서 굉장히 노력을

해 주셨습니다. 그래서 뭐 아직까지 많이 지금까지 계속 많이 활용을

했다기보다는 같이 개발을 해 왔던 과정이라고 보셔 주시면 좋을 것 같고

어 이제는 이제 상품화할 단계가 이제 거의 됐다고 보시면 이해해 주시면

좋을 것 같습니다. 그래서 어 최근에 발표한 X4원 4.0까지 저희가

협업을 진행해서 어 충분히 상용 수준의 어 그네 서비스 구동을 할 수

있는 그런 MPU를 확보했다고 볼 수 있을 것 같습니다.

>> 네. 보안 설명을 좀 드리도록 하겠습니다.

서비스 개발 부문 맡고 있는 전기정이고요. 어 퓨료오사랑 계속

테스트를 해가 보다 보니까 성능이 상당히 많이 올라와서 저희 X1

3.5 모델, X4.0 모델 서빙하는데 큰 문제가 없다라고 판단을

하고 있습니다. 어, 전력비, 그러니까 전력을 사용하는 전성비가

워낙 좋기 때문에 MPU 서버를 만약에 어떤 고객사에서 어, 염두해

두신다면 어, 크다 커다란 전력의 어떤 고민상항이

없이 바로 적용하실 수 있을 거로 생각하고 특히 저희가 이제 제공하고

있는 온프레미스 솔루션 패키지를 통해서 어, 빠르게 그 업에 적용할

수 있는 그런 패키지도 같이 전달을 하기 때문에 고객의 입장에서는

GPU뿐만 아니라 MPU도 바로 사용하실 수 있다. 요런 준비가

되었다. 이렇게 이해를 하시면 될 것 같습니다.

네. 다음 질문 받겠습니다. 네. 오른쪽에서 두 번째 줄 앞줄에

계신 남자님 기자님께 마이크 전달 부탁드립니다.

>> 예. 질문해 주셔서 감사합니다. 더 AI 김동원 기자라고 합니다. 어 첫

번째 질문은 이제 어 국가주도 AI 정부 사업에 참여를 하셨는데 어렵이랑

대학 합쳐서 15 곳에 지원했더라고요. 그래서 LG A

연구만의 장점은 무엇인지 일단 첫 번째 질문 한번 드려 보겠고요.

그리고 결국이 사업으로 가게 되면은 범용적인 AI를 LG AI 연구원도

하는게 아닐까라는 생각이 듭니다. 아, 지금 그래서 B2B 쪽으로 좀

전문성에 쫓을 많이 맞췄지만 법용 쪽으로는 로드맵 있으신지 그리고

로드맵 있다면 어떤 좀 전략을 갖고 계신지 궁금하고요. 결국에 또 이런

국가 파운데이션 모델이나 이런 거는 글로벌적으로 경쟁력을 갖춰야 되는데

그렇게 되기 위해서는 사실 한국이 GPU나 데이터나 자 투자금이라게

많이 부족한 상황인데 물론 LG A연군이 뭐 경량하나 이런 쪽에서

높은 기술을 갖고 있지만 또 어떤 또 장점으로 또 글로벌 기업들을 승부할지

이런 것도 좀 궁금합니다. >> 예. 어, 독자 AI 파운데이션

모델에 저희가 지원한 것은 어제 보도자료로 확인이 되었고요. 어,

경쟁력을 이제 심사를 받아야 되니까 뭐 자세히

있는 말씀을 드리지는 못하더라도 어, 저희가 이제 글로벌 우수 모델들 대비

이제 상대적으로 적은 양의 GPU로 높은 성능들을 확보해 오고 있는

경험들이 있고요. 오늘 보여 드린 이런 생태계 내용들을 더 확장해서

글로벌로 우수함을 알리니고 국내 이하의 생태계를 활성화하는 다양한

방안을 제한드릴 예정입니다. 이게 부현 설명을 조금 더 추가해서

보태자면 어 좋은 AI를 만들기 위해서는 좋은 데이터, 좋은 인프라,

좋은 사람 그리고 좋은 AI 레시피 기술이 있어야 됩니다. GI 연구하는

데이터 인제 기술은 이미 확보가 충분히 됐다고 생각이 되고요. 단지

이제 인프라가 좀 부족한데 그거를 국가 차원에서 이제 사업을 한다고

하니까 저희가 참여하게 된 거고 그래서 조금 더 법용적인 모델을

만들어서 릴리즈는 하되 그 만들어진 모델을 또 LG는 저희 산업 현장에

맞게 커스터마이징 하는 역할들을 충분히 수행을 할 것이고 또 AI

기술은 계속 이렇게 발전을 하겠지만 어느 순간 또 성숙 단계로 진입을 할

가능성이 있어 보입니다. 그때까지 우리가 계속적으로 좀 국가의에

LG 내부적인 자체적인 투자를 통해서 꾸준히 그때까지 우리가 계속 기술을

앞서서 선도해 나갈 수 있다면 글로벌 탑 3의 국가에 방향 꼭 대한민국이

설 수 있지 않을까 그런 생각으로 여기 두 분 계신 공동 연구원장님과

함께 열심히 노력하고 있습니다. 네. 다음 질문 받겠습니다. 아,

오른쪽에서 세 번째 줄에 계신 네, 청색 셔츠 입으신 기자님께 마이크

전달 부탁드리겠습니다. >> 네, 안녕하세요. 블로터 최지원

기자입니다. 네, 엑사원이 좀 생성한 응답의 할루시네이션 문제에 대한 내부

모니터링이나 리스크 관리 책에 어떻게 되어 있는지 좀 알고 싶습니다.

그리고 발표말 말미에 피지컬 AI에 대해서 조금 설명해 주셨는데 정확한

정의가 궁금합니다. 로봇 센서나 로봇 센서, 엣지 컴퓨팅 등등을 좀 포함한

기술 스택 전체를 포괄하는 건지 아니면 AI의 물리적 실행력 자체를

지칭하는 개념적 프레임인지 알고 싶습니다.

>> 먼저 할루시네이션 관련해서 먼저 설명드리겠습니다. 할루신 네이션

문제는 잘 아시겠지만 저기 lm이 그 모델이 배우지 않아서 배우지 않은

모르는 부분을 답변할 때 사실과 다르거나 아니면 앞에 했었던 답변이랑

좀 모순되게 어 답변을 생성하는 그런 문제입니다. 즉 가장 그 기본적인

문제는이 그 해당 지식을 배우지 않았다는데 그 문제가 있는 건데요.

그래서 사실은 그 저희가 이런 피드백을 자주 받아서 어떤 부분이

지금 현재 모델이 배우지 않았고 어떤 부분을 보강하면 좋을지를 알아내기

위해 오픈소스와 하고 커뮤니티에네 항상 피드백을 받고 있습니다. 그래서

그런 1년의 과정을 통해서 지속적으로 모델 어 개선하는데 적극적으로

활용하고 있습니다. 예. 피지컬 AI에 관련해서는 저희는

일단 뭐 로봇이나 또 혹은 공장에서 활용되는 여러 가지 장비에 들어가는

AI를 일단 생각하고 있고요. 어 그래서 일단 어 로봇으로 여러 가지

작업을 수행하거나 혹은 공장에서 생산 일정 혹은 어 또 어떤 장비 제어 등

여러 가지 어 어 공장 어 제어 제조에 도움이 되는 그런 피지컬

AI를 일단 저희가 어 구성하고 있습니다. 따라서 계열사와도 이런

논의를 진행하고 있습니다.이 이 할루스네이션 관련해 가지고 좀 더

보충 설명을 드리면 아까 전에 이진식 님 말씀하신 것처럼 lm이 해당

도메인이나 해당 지식을 못 배웠을 때 프롬프트가 입력이 되면 모르는

내용들을 계속 확률적으로 배턴하기 때문에 할루스네이션이 발생하거든요.

어 X41 덱사원에서는 이런 것들을 보완하기 위해서 앞에 가드레일 모델을

두기도 하고요. 그다음에 아까 전에 발표 때 있었던 데이터 파운더리 같은

것들은 해당 기업 또는 해당 도메인에서 발생하는 문서를 더 빠르게

가지고 오고 그 문서 내에서 있는 정보들을 출처을 가져가면서 가장

정확한 정보를 lm에 입력시킬 수 있는 시스템이기 때문에 그런 보안 책

보안 방법들로 계속 잡아 나간다라고 이해를 해 주시면 좋을 것 같습니다.

>> 예. 잠깐 부현 설명드리면 아까 피지컬

AI 관련해서 이제 X41 모델이 단지 이제 센스링하고 언더스탠딩을

넘어서 실제 이제 액션을 하는 뭐 오토나 이런 거 구동하는 그런

기술로도 좀 발전되고 있다고 말씀드릴 것 같고요. LG 그룹 내에 다양한

로봇 산업과 하대어 산업들이 있어서 그룹 내 협업을 통해서 이런 부분을

진행하고 있다고 말씀드릴 수 있을 것 같습니다. 앞으로의 어 결과도 좀

기대해 주시면 감사하겠습니다. >> 네. 네. 다음 질문 받겠습니다.

네. 가운데 줄 가장 뒤쪽에 앉아 계신 밝은 옷 입으신 기자님께. 네.

감사합니다. >> 아, 네. 안녕하세요. 저 데일리안

임체현이라고 합니다. 저 다른 거는 딴 다른 분들께서 앞서 설명 그니까

질문을 주셔 가지고 그 저는 엑사1원 온프레미스 관련해서 한 가지 궁금한게

있는데 요게 이게 설명해 주신 거 들어보니까 이게 자체 AI 반도체나

모델을 활용한 이게 보안과 독립성이 강조된 기업 전용 솔루션이라고 설명을

주셔 주시는 거 같더라고요. 근데 이게 그 GPU가 없는 AI를 이렇게

좀 강조를 하신 거 같은데 이게 이제 엑사원의 기술 독립으로 봐야 되는

부분인지 아니면은 그 M 그 GPU 공급 부조 그런 사태의 우회책인지가

그 부분이 조금 궁금합니다. 그리고 아 또 하나만 질문을 더 드릴게요.

그 오늘 엑사원이 이제 AI 모델이 아니고 산업 구조를 바꾸는 거라고

이제 많이 강조를 하셨는데 아까 PPT 발표에서도 그렇고 지의

응답에서도 그 CNS 사례도 잠깐 언급을 해 주시긴 하셨는데 연구원에서

딱 강조하고 싶은 어떤 특정 산업에서의 뭐 정확한 매출 기어나

비용 절감 수치를 한 사례를 구체적으로 하나만 좀 말씀을 해

주시면 좋겠습니다. >> 네. 온프레미스 패키지는 약간 오해가

있으신 거 같은데 그러니까 기업 내에서 AI를 도입을 하고 싶은데

특히나 국가 핵심 기술 과제에 소속되어 있거나 아니면 내부의

경쟁력을 외부로 노출시키고 싶지 않을 때 기업 내부 안으로 이제 장비를

들여와야 되는 경우가 있습니다. 그런 GPU MPO 장비만 있고 그다음에

허깅페이스에서 모델을 다운로드 봐서 구동을 시켜 봤더니 동작하지

않습니다. 이런 얘기를 저희가 너무 많이 들어서 내용을 뜯어 보면

온프레미스 장비 위에 어 ML스 같은 소프트웨어가 올라가고 거기에서 모델이

구동되고 다시 이걸 API로 만들어 주고 이렇게 해야 되는 소프트웨어

작업들이 너무 많더라고요. 이거를 여러 회사들이 사실 뭐 국내 솔루션

하는 기업들이 있는데 이걸 그렇게 다 각자 만들지 말고 모델 만드는 기업이

전체를 소프트웨어로 패키징해서 릴리즈를 하면 바로 장비 사고 그

소프트웨어 패키지를 얹으면 동작할 수 있게 만들면이 AX 도입 속도가 훨씬

빨라지지 않을까 해서 만든게 저희 온프레미스 솔루션이고요. 두 번째

질문은 이제 산업 구조 변화에서 어떤 분야에서 이걸 뭐 많이 활용하고

있느냐 이런 말씀을 주셨는데 이게 참 그 말로 표현 그니까 숫자로 표현하기

조금 어려운데 예를 들면 이런게 있습니다. LG 디스플레이 안에 가면

상품을 개발하는 사람 그리고 공장에서 대량 양산하는 엔지니어들이 있습니다.

몇 천 명 정도 있는데요.이 이 엔지니어들이 보통 주로 하는 일이

새로운 디스플레이 회로를 설계하면 이거를 양산하기 위해서 뭐 문제가

있는지를 확인하고 또 양산해 보고 또 이슈 있으면은 그 수정하고이 작업을

반복적으로 하는데 보통은 5개월에서 6개월 정도 작업을 합니다. 근데

이게 AI 도움 없이 그냥 사람이 다 하려면 옛날에 비슷한 경험을 했던

사람한테 전화하거나 아니면 그 사람들이 남아 있는 다큐먼트를

찾아보거나 이렇게 해야 되는데 이게 보통 막 20일씩 30일씩 문제 하나

해결하는데 그렇게 오랜 기간이 걸립니다. 저희가 이제 생성해야

X4을 딱 도입해서 디스플레이한테 그걸 딱 딜리버를 해 줬더니 수천

명의 엔지니어가 불과 2, 3분 만에 과거에 수많은 트롤블 슈팅 다큐먼트를

다 뒤져 가지고 AI가이 중에서이 사례가 당신과 비슷한 거 같고 거기에

해결책은 이건 거 같고 이걸 적응했을 때 예상되는 기대 효과는 이런게

있다라고 바로 딜리버를 해 줄 수 있으면 그 기업의 그 일하는 전문

엔지니어들의 생산성을 획기적으로 증가할 수 있지 않겠습니까?이 이

시스템을 저희가 에너지 솔루션에도 적용했고 디스플레이에도 이미 적용하고

다른 계열사에 확산하고 있습니다. 그 이런 경험을 우리 국내 있는 다른

기업에도 좀 제공하기 위해서 이런 전체 B2B 솔루션을 만들어서

공급한다 이렇게 이해해 주시면 감사하겠습니다.

첫 번째 질문 관련해 가지고 뭐 추가로만 말씀을 드리면은 온프라이스

패키지는 이제 뭐 MPU로만 되는 거는 아니고 MPU로 구성을 할 수도

있고 GPU로 구성을 할 수도 있고요. 뭐 MPU는 소개해 드린

것처럼 가격대 성능비 혹은 뭐 전력대 성능비가 우수하기 때문에 저희가

GPU에 좋은 대안으로 생각하고 같이 협업을 진행하고 있다고 어 보시면

좋을 것 같습니다.네 다음 질문 받겠습니다.네 첫 번째

줄에 맨 앞에 계신 기자님께 마이크 전달 부탁드립니다.네

>> 안녕하세요. 데일렉 이석진 기자입니다. 오늘 데이터 파운더리랑

어 넥서스에 대한 설명 너무 잘 들었습니다.이 이 두 개가 이제 락

기반으로 움직이는 거 같은데요. 어 어쨌든 두 솔루션이 정확도가 높다는

것은 라그뿐만 아니라 이제 사전 학습된 로우 데이터 그 파이프라인과

풀이 큰 것인지도 궁금하고요. 또 다른 기반 기술인지 궁금합니다.

그리고 하나 더 질문 드리려고 하는데 LSG와의 파트너십은 상당히 좋은

레퍼런스로 보입니다. 혹시 LS가 마스터 스코어에 사용하는 모델이

X1만 존재하는 것인지가 궁금합니다. 일단 데이터 파운드리 기술에 대해서

좀 설명드리면 아까 엑사 모델 기반으로

어 주요 이제 기술들이 많이 들어가 있습니다. 문서를 이해하는 능력

그다음에 어 문서를 검색하는지 기술 외에도 엑사모델이 문서를 기반으로

질문을 자체적으로 생성하는 모델이 있고요. 그다음에 질문과 문서를

가지고 답변을 다시 생성하는 모델이 있고요.이 이 세 가지 조합을 가지고

정정답인지 아닌지를 다시 판단하는 그런 모델들이 여러 기술들이 이제

조합적으로 많이 들어가 있습니다. 이러한 넥사 모델 기반에 다양한

기술들을 조합해서 최종의 정확도가 높은 신뢰성 있는 데이터를 만들 수

있다고 말씀드리겠습니다. >> 네. 넥서스에 관해서

말씀드리겠는데요. 어 넥서 시스템은 뭐 R라고 보기보다는 좀 더 이제

스스로 어떤 웹페이지를 탐색해서 여러 가지 정보를 가져올 수 있는 그런 어

웹 에이전트 그리고 웹 에이전트와 같이 결합해서 거기에 존재하는 여러

가지 라이센스나 법률적인 정보들을 찾아오는 이런 어 어떤 언어 이해

능력을 가진 에이전트 그리고 이것들을 종합적으로 검토해서 어 한 데이터셋이

사실은 여러 가지 어, 디펜던트한 데이터 셋들이 있는데 그것들을

종합적으로 판단하고 사실 그 트래킹 하는 것이 굉장히 어렵습니다. 그래서

한 데이터셋이 뭐 어 수십 뭐 수백 혹은 훨씬 더 많은 수의 어떤 소스

데이터셋으로 굉장히 여러 복잡한 의존 관계를 거치는데 이런 것들을 이제 웹

에이전트로 자동적으로 탐색하고 정보를 다 찾아오고 이것을 종합해서 어

법적인 어떤 리스크 점수를 산출하는 여러 가지 에이전트로 같이 종합되어

구성되어 있다 이렇게 보시면 되겠습니다. 그래서 여기 어떤

정확성을 담보하기 위해서 저희는 맥사원 기반으로 고품질 데이터를 어

생성하고 이것들로 이제 웹 탐색과 또 어 점수를 산정하고 또 어떤 라이센스

정보를 추출한 여러 가지 기능들에 대해서 최적화를 했다고 보시면

되겠습니다. >> 조금 부연 설명드리면 이제 첫 번째

웹 에이전트라는 것은 웹의 구조를 언더스탠딩 하는 겁니다. 그래서 어

데이터가 어 오픈된 데이터 셋을 보면 그

하위에 다양한 폴더와 데이터와 관련된 문서들이 있습니다. 그래서 그 구조를

이해서 어떤 것이 중요한 라이선스 텀을 갖고는지를 판단하고 그 판단된

어 텍스트를 언더스트링해서 이것의 라이선스가 이슈 없는지를 판단하는

것을 넘어서 최근에 이제 데이터 셋들은 어떤 라이센스를 하면 다른

데이터셋을 함유하는 경우가 있습니다. 그래서 이제 트래킹한다는 것은 그

라이센스를 다시 따라가면서 그 웹 트레적티를 언더스탠딩 하고 걸 거기에

관련된 라이센스을 이해하고 이것을 가져와서 종합적으로 판단하는 여러

에이전트 기술들이 적용되어 있다고 말씀드리겠습니다. 네.

>> 네. LSG 관련된 거는 뭐 상세하게는

말씀드릴 수 없는데 X1는 아닙니다만 X4원을 주로 쓰고 있다고 말씀드리면

좋을 것 같습니다. 네. 시간 관계상 두 가지 질문 정도

더 받을 수 있을 것 같습니다. 네. 다음 질문 받겠습니다. 왼쪽 첫 번째

줄에네 번째 네. 계신 기자분께 마이크 전달 부탁드립니다.

아녕세. 아, 네. 안녕하세요. 오늘 발표 잘

들었습니다. 서울 경제 노울이라고 합니다. 어, 먼저 저 두 가지

질문하고 싶은데요. 첫 번째는 오늘 이제 뭐 지의 응답에서도 말씀해

주시면서 LG 그룹의 AX 이제 추진이 좀 궁극적인 목표의 1번

순위라고 하셨는데 그러면 계열사 내부에서 지금 활용되고 있는 챗

X4원에도 오늘 설명하신 뭐 데이터 파운드이나 이런 모든 기술들이

적용되고 있는지 특히 X4.0이 영이 넥사원에 언제 탑재되는지 궁금하고요.

두 번째는 아까 뭐 국가주도 파운데이션 AI 모델 사업에도

참여하셨는데 국내 그 한국의 AI 생태계 구성에 가장 시급한 요소가

뭐라고 생각하시는지 또이를 위해 필요한 국가적 지원이 어떤게 있다고

생각하시는지 궁금합니다. 제가 ex 먼저 봤습니다. 오케이.

LG 그룹 내 계열사가 지금 최선을 사용하고 계시는 분이 한

55,000명 정도 됩니다. 그 사이에 더 늘었고.데 네. 아까 전에

데이터 파운더리가 바로 최대 사원에 들어가지는 않습니다. 다만 이제

계열사별로 AX를 진행할 때 결국은 얼마나 다양한 밸류체인에 얼마나 깊은

정보들을 빠르게 확산 적용할 수 있느냐가 숙제가 될 텐데 데이터

파운더리는 그런 부분에 있어서 가속자 역할을 하게 될 거고요. 그게

가속화가 되고 나면 어 지금 저희가 온 프레미스 솔루션 패키지와 같은

형태로 채택사원의 서비스에 데이터 파운드리에서 나오는 lm을 붙여서

바로 에이전트를 구축할 수 있는 그런 환경을 제공함으로써 LG 그룹의

AX를 더욱 가속화할 예정입니다. 어 국내 생태계에서 시급한 점을

말씀을 주셨는데요. 지금 추진되고 있는 주요 과제들을 보면은 데이터

센터를 짓고 있고 독자 AI 파운데이션 모델 과제를 추진하고

있습니다. 그걸로 비추어 봤을 때 우리가 경쟁력 있는 모델을 가지고이를

저렴하게 국내에서 기업이나 기관, 개인들이 사용할 수 있다면 생태계가

갖춰질 수 있다고 생각하는 것이라고 보이 어 맞다고 생각합니다.

사업적으로 보면 두 가지를 좀 활성화를 국가에서 해 주면 굉장히

좋을 것 같습니다. 첫 번째는 GPU GPU GPU입니다. 그 한국이

압도적으로 인프라가 부족합니다. 이런 인프라를 좀 국가 차원에서 많이

확성을 해 줘야 국내 기업들이 그 만들어진 인프라 위해서 마음껏

어플리케이션도 만들고 서비스도 만들고 기업 내부에 적용하고 이런게 가능할

것 같고요. 두 번째는 저희가 엑사원 패스 2.0을 을 만들면서 굉장히

많이 느끼는 반데 엑사패스가 그 인간의 암환자의 병리 이미지와 유전자

데이터를 멀티모델로 학습해서 병리 이미지만 있으면 유전자의 변이나

과발현을 수식간에 판단해 가지고 어떤 타겟 후보 물질이 여기에 가장 적합한

환자인지를 선별해 주는 기술인데 국내에서는 병리 이미지는 병원 밖으로

빼낼 수가 있습니다. 근데 유전자 관련 내용은 아무리 감형 처리를

하더라도 병원 밖으로 나올 수가 없습니다. 근데 미국은 그게 다

가능해서 저희가 밴더빌트 병원이나 유니버스 피치급 메디컬 센터랑

협업하는 이유가 다 그런 이유 때문입니다. 국내에 이런 규제들 중에

데이터 관련된 규제가 있으면 좀 과감하게 그 뭐 비행 정보 문제라든가

뭐 비밀 관련 문제가 없는 한 좀 오픈을 할 수 있도록 체계를 좀

갖추는 것이 굉장히 중요할 것 같습니다.

네. 마지막 질문 받겠습니다. 가운데 줄에 가운데 계신 검은옷

입으신 기자분께 마이크 전달 부탁드립니다.

어 안녕하세요. 서울경제 허진 기자라고 합니다. 어, X41이

초기에는 어, 이미지에 맞는 캡천을 단다거나 어, 계열사 패키징 디자인을

만드는 뭐 그런 시도들도 하셨던 거 같은데 어, 최근에는 보면은 어,

제제약이나 바이오 쪽에서 뭔가 사업 교회를 많이 찾으신다는 느낌이 있는데

어, 그렇게 좀 이해하면 될지 새로운 어, 어, 돈이 되는 사업 쪽은 그런

쪽으로 보고 계신 걸로 이해하면 될지 좀 궁금하고요. 하나 더 여쭤보면 어

클라우드를 통해서 매출이 한 1천억 정도, 1천억 이상 정도 나온다고

아까 말씀하셨는데 어 스타트업이나 뭐 중소기업 이런

데는 아마 AI를 많이 쓸 거 같은데 어 저희가 아는 뭐 대기업이나 뭐 큰

기업 중에서 이야기 중이거나 쓰고 있는 기업들 사례도 좀 소개

가능하실까요?네 네. 제가 답변을 드리도록

하겠습니다. 첫 번째 질문부터 좀 답을 드리면 저희가 처음에 이제 생성

외가 나왔을 때 멀티모델이라는 화두를 우리가 어떻게 다뤄야 할 것인가 기술

개발을 우선 좀 해야 되지 않습니까? 그럼 그런 기술 개발을 하 있어서

데이터가 가장 풍부한 영역에서 하는 것이 더 중요할 것 같아서 이미지를

생성하거나 이런 쪽에 좀 많이 했었고요. 이걸 자연스럽게 기술

개발이 좀 되고 나면 어디에 적용할 건가 많이 고민을 하다가 좀 마케팅

영역 이런 데서도 좀 트라이를 해 봤습니다만 그게 우리가 경쟁사업보다

과연 더 잘할 수 있는 사업 영역이 맞나라는 의문이 첫 번째 들었고 두

번째는 LG 그룹의 신사업 방향이랑도 좀 언라인을 해야 되고 또 아까

말씀드린 계열사의 AX에 활용할 만한 멀티모델로 좀 쉽게 하는 것이 중요할

것 같다. 그래서 오늘 공개드린 X1 VL 기술에 그 문서 내에 있는

차트, 이미지 표 이것들 이해하는 기술들은 사실 예전에 만들었던 그

멀티모델 기술에서 와서 AX를 앞당기는 역할을 하고 있고 그다음에

병리 이미지 아까 그 병리 이미지와 인간 유전자 인간 유전자는 사실

시퀀스도 시퀀스로 되어 있어. 이게 사실 텍스트와 문장과 동일합니다.이

두 가지를 멀티모델로 학습해서 그 임상시험 분야의 획기적인 사업 계획을

찾는 것은 우리 그룹의 바이오의 신사업 찾는 영역과 좀 연결해서

그렇게 사업을 진행을 하고 있습니다. 두 번째 질문은 이제 다른 대기업도

있냐 뭐 공연하게 그런 기업을이 자리에서 거론하는 거는 바람직하진

않은 거 같고 LG CNS나 유플러스가 이미 수주한 기업들 중에는

공공 기관 그리고 큰 금융 기관 뭐 큰 다른 국내 기업들도 많이

있습니다. 저도 추가로 답변드리며 오늘 엑1

VL과 엑1 패스 소개드렸는데 사실 VL 모델은 어 문서 이에 굉장히

최적화된 뭐 최고 성능을내는 모델이기도 하지만 일반 영역에서도

굉장히 수준급의 성능을 달성하고 있습니다. 사실 저희는 이제 언어

모델을 넘어서서 이런 멀티모델 정보를 이해함으로써 에이전틱 AI, 피지컬

AI로 나가는 중요한 어떤 연결이 AI를 더 강화하기 위해서는 이런 어

엑선 VL 같은 어떤 멀티모델 정보를 이해하고 그것을 바로 행동으로 옮길

수 있는 그런 모델들이 필요하고 또 이것들이 어 앞으로 피지컬 AI 뭐

로봇이나 어떤 공장에서 사용된 여러 가지 장비들이 활용될 수 있을 것으로

생각합니다. 입니다. 네. 예상보다는 답변이 빨리 끝나서

정말 마지막 질문 네. 한 가지만 더 받겠습니다. 끝에 계신 기자님께

마이크 전달 부탁드립니다. >> 아, 네. 마지막에 감사합니다. 저

동알보 박현이 기자라고 합니다. 그 챗 엑사원 오픈 베타 이제 서비스를

시작한다고 해 주셨잖아요. 이게 대중의원을

내놓는 첫 번째 이제 서비스로 보이는데 근데 구체적인 뭐 일정이나

아니면은 어느 정도 규모로 여실지 그 계획이 궁금하고요. 그리고 이제 추후

뭐 채치비T나 재미나이처럼 어 이제 일반 앱스토어에도 올릴 수

있는지 그런 계획이 있으신지 그리고 이제 대중 서비스를 나오면 꽤 많은

데이터 센터 인프라가 필요할 것 같은데 이제 뭐 그 정도 좀 영향이

되시는지 궁금하고요. 그리고 두 번째 질문은 이제 그 런던 증권 거래소랑

협회 내놓는 투자이 어시스트 AI는 언제쯤 나오는 걸로 예상하고 계신지

그리고 뭐 구체적으로 뭐 일반인들도 쓸 수 있는 그런 서비스라고 볼 수

있을지 좀 궁금합니다. 네. 최사원 베타 서비스 관련해서

말씀을 드리면 어 여전히 저희는 그래도 B2B 고객들의 우선적으로

제한 그 공개를 드릴 예정입니다. 어 말씀드린 것처럼 B2C 서비스를 완전

오픈하기까지는 저희가 의사 결정의 포인트들이 좀 남아 있는 거 같고요.

그래서 오늘사원 베타 가입을 유도를 할 때 기업이나 공공 기관, 연구

기관 등을 중심으로 제가 웨인리스트에서 우선적으로 기회를

드리고 그 내용에 따라서 향후의 방향을 정하도록 하겠습니다.

최사원 서비스 자체가 최사원 4 엔터프라이즈 그러니까 기업 내에 있는

임직원들이 쓰기에 적당하게 설계돼 있기 때문에 오늘 오픈 베타 신청을

받지만 주로 이제 기업에 계신 임직원 분들께서 많이 쓸 수 있도록 우선권을

많이 드리려고 하고요. LSG 같은 경우에는 3분기 내에 상용화를 할

예정이고 이게 이제 뭐 일반인도 볼 수 있느냐 뭐 야업 파이낸스나 뭐

구글 페이지에가 가지고 파이낸스 정보를 접할 때 그런 부분들에서도 다

엑세스 가능하도록 만드는게 궁극적인 비전이고 뭔간 우선 첫 번째 단계는

LSG가 가지고 있는 여러 고객사들한테 아까 수많 고객사들한테

먼저 확산을 시키는데 이게 저희가 보기에는 그냥 투자 영역에서만 쓸 것

같지 않습니다. 예를 들면 뭐 LG도 마찬가지인데 어떤 기업이 사업적인

의사 결정을 할 때 저 회사는 우리의 협력 회사로 적합한가 또는 저 회사는

우리의 부품 공급사로 적합한가 저 회사는 우리의 유통사로 적합한가 이런

것들을 다 따져 봐야 되지 않겠습니까? 그러면 물론이 세상의

포춘 500대 기업 안에 들어가는 기업이면 그런 애널리스트 리포트들이

엄청 많아서 쉽게 쉽게 정보를 엑세스 할 수 있겠지만 라지캡이 아니라

미드캡, 스몰캡, 나노캡 이렇게 내려가면 그런 정보들이 거의

없습니다. 그러면 사람이 할 수 있느냐 불가능하다고 보여집니다.

그래서 LSG와 저희가 손을 잡고 AI가 논리적으로 사고에서

추론을함으로써 좀 에이전틱하게 파이낸셜 스테이트먼도 들여다보고

과거의 주가 흐름도 들여다보고이 기업이 체 체결한 최근의 계약서도 좀

들여다보고 이런 추론 과정을 통해서이 기업의 전망이 앞으로 어떻다 그리고

왜 그렇게 생각하느냐의 정보를 스케일 넘게 만들어 내면은이 세상에 있는

많은 기업들이 쓸 수 있지 않을까 해서 그런 서비스를 준비했고 3분기

내에 성용하는 걸 목표로 열심히 LSG와 협하고 있습니다.

[음악]