![김영준 LG전자 CTO부문 온디바이스 AI 사업화 태스크 전무가 KES 2024에서 기조연설을 진행 중이다. [사진 양대규 기자]](http://www.fetv.co.kr/data/photos/20241043/art_17296454562267_1724c6.jpg)
[FETV=양대규 기자] 올해 한국전자전(KES 2024)의 주제는 ' ‘Hybrid AI, Shape Sustainability(하이브리드 AI, 지속 가능한 세상을 그리다)’였다.
하이브리드 AI는 기기와 같은 말단에서 직접 AI를 처리하는 '엣지 AI' 또는 '온 디바이스 AI'와 초거대규모 AI를 돌리는 클라우드 AI를 결합해 학습하는 방식을 말한다.
22일 김영준 LG전자 CTO부문 온디바이스 AI 사업화 태스크 전무는 KES 2024에서 '하이브리드 AI의 가능성'을 주제로 기조연설을 맡았다.
김영준 전무는 "(AI 산업에서) 여전히 굉장히 크고 많은 빅테크들 위주로 주목을 받고 있지만 현실적으로는 그 아래의 AI 기술들이 오히려 각광을 받고 있다"며 "하나의 거대 모델 만 가지고는 이 세상의 모든 문제를 풀 수 없기 때문"이라고 강조했다.
그는 "우리는 그(빅테크 기업)만큼 수십조의 인프라를 투자해서 거대 모델을 만들 수 없다는 걸 우리도 잘 알고 있다"며 "그래서 확산이 어떻게 보면 좀 더디고, 기대했던 현실적인 문제를 해결해 줄 수 있는 것들이 아직은 좀 많이 부족한 상황"이라고 설명했다.
초창기 AI는 마이크로소프트, 구글, 메타와 같은 빅테크 기업들이 엔비디아 GPU를 수십만대씩 구매하면서 지속해서 빅데이터로 학습하는 데 주목했다. 이를 통해 초거대규모 AI 모델을 만든 것이다. 다만 클라우드 기반의 이런 대형 AI는 여러 한계가 있었다.
김 전무는 " 왜 지금 거대 모델들이 어려움을 겪고 있을까"라면서 "막상 우리가 글을 작성하고 편하게 쓸 때는 문제가 별로 없어 보이지만 기업이나 어떤 제품 단에서 적용하기에 비해서는 상당히 정확도가 떨어지는 편"이라고 설명했다.
초거대규모 AI에 들어가는 천문학적인 비용 문제도 짚었다. 그는 "물론 지금까지 오픈AI 같은 데서 굉장히 많은 엔비디아의 GPU를 써서 학습을 하고 있지만 엔비디아 GPU가 워낙 고가이기 때문에 내가 원하는 정도의 경제적 가치를 만들어내기 어려우면은 이걸 당장 구입하기가 쉽지 않은 결정"이라며 "뿐만 아니라 요즘 전력 수급을 위해 소형 원자로를 데이터 센터마다 하나씩 만들어가지고 적용한다는 얘기가 나오고 있다"고 지적했다.
아울러 초거대규모 AI를 이용해서는 개별 애플리케이션 적용도 어렵다.
김 전무는 "실제 생활에 필요한 연결형 데이터는 인터넷 수집으로는 공부는 충분히 했다"며 "그래서 똑똑한 뭔가가 나왔는데 그걸 가지고 기존 것을 적용하려고 하다 보니까, 저희가 데이터베이스라는 형태로 만들어놨는데 여기는 원인과 결과가 설명돼 있지 않고 어떻게 보면 키와 밸류라는 걸로 딱 그 순간에 스냅샷을 저장해 놓은 상황"이라고 말했다.
빅데이터를 이용해 AI 모델을 만들었으나, 그것의 작동원인이 불명하고 단순히 입력과 결과만을 도출하기 때문에 다른 애플리케이션에는 사용하기 어렵다는 것이다.
이에 따라 새로운 대안이 필요했고 그렇게 나온 것이 바로 클라우드 기반의 대규모언어모델(LLM)이 아닌 엣지에서 구동되는 소형언어모델(SLM)이라고 불리는 AI였다.
![온디바이스 AI로 구현하는 SLM에 대해 설명하는 김영준 LG전자 전무 [사진 양대규 기자]](http://www.fetv.co.kr/data/photos/20241043/art_17296455995739_5a08f8.jpg)
김 전무는 "이후 LLM과 SLM은 약간 어떻게 보면 경쟁의 구도처럼 사람들은 생각해서 모든 기업에서는 그러면은 LLM의 API가 비싸니까 SLM으로 바꾸는 게 나을 것이 생각했다"며 "마켓이 (LLM과 SLM) 정확히 두 개로 쪼개졌다"고 설명했다.
다만 그럼에도 SLM을 돌리는 온디바이스 AI에서 메모리의 용량이 부족하기 때문에 LLM과 같은 수준의 모델을 돌리기는 어렵다.
그는 "메모리 크기의 발전 속도에 비해서 모델이 너무 빨리 커졌다"며 "지금은 우리가 HBM이라는 걸 통해서 LLM을 구현하는데 HBM이 장점은 굉장히 밴드 위치가 크지만 단점은 전력 소모량이 엄청나다. 반면에 온디바이스 쪽에서는 LPDDR라는 로우 파워 D램을 써서 전력 소모량을 줄이는 게 굉장히 중요하다"고 설명했다.
하지만 LPDDR은 HBM과 같은 대역폭을 내기 어렵다. HBM은 전력소모량이 심하고 가격이 비싸기 때문에 온디바이스에 탑재하기 어렵다. 즉 하드웨어의 발전이 AI 모델의 발전 속도를 쫓아가지 못하고 있다는 상황이다.
김 전무는 "하이브리드 AI는 온디바이스에서 내 필요한 상황을 정리해 주고 그다음에 프라이버시를 보호해 주고 이미지 같은 많은 것들이 서버로 흘러가는 데 많은 시간이 걸리기 때문에 이런 것들을 온디바이스에서 일단 가공을 하는 다음에 복잡한 문제를 (클라우드에) 연결해서 뭔가를 할 수 있는 것" "(온디바이스와 클라우드) 두 개가 다 쓰는 것들이 굉장히 중요해졌다"고 강조했다.
현재 온디바이스 AI가 가진 한계와 초대규모 AI의 한계를 극복하기 위해서는 이를 조합한 모델이 중요하다는 설명이다.
그는 "결국 콘텐츠 상황을 어느 수준으로 자동할 수 있는지 여부가 차별적 경쟁력이 되지 않을까"라며 "하이브리드 인텔리전스를 강화해서 내 걸로 만드는 영역들이 우리 사회에서는 굉장히 중요할 것"이라고 설명했다. 상황에 맞는 AI 모델을 만들어야 한다는 것.
이어 "LG전자도 서버용으로 출발은 했고 온디바이스를 계속 확산해 나가면서 하이브리드 세상을 만들어가는 노력을 지금 하고 있다"며 "LG전자가 개발한 AI 에이전트가 바로 '퓨론'이다"고 덧붙였다.
![LG전자의 AI 에이전트 ‘퓨론’이 탑재된 AI홈 허브 ‘씽큐 온’을 중심으로 생성형 AI가 IoT 기기를 제어하고 서비스까지 연결하는 LG AI홈 개념도. [이미지 LG전자]](http://www.fetv.co.kr/data/photos/20241043/art_1729645425149_5ece9f.jpg)
퓨론은 스마트홈 플랫폼 LG 씽큐에 다양한 거대언어모델(LLM)을 결합해 LG AI홈의 ‘두뇌’ 역할을 하는 하이브리드 AI 모델이다. 오픈AI의 최신 LLM인 GPT-4옴니(4o)를 우선 적용해 LG전자 씽크홈에 사용되고 있으며 향후 LG 엑사원 등 다른 LLM과도 결합할 수 있다.
LG전자는 생성형 AI에 실시간 공간 센싱과 사용자의 생활 패턴 데이터를 결합한 퓨론은 고객의 라이프스타일을 학습하고 개개인에게 최적화된 공간 솔루션을 제공한다.
예를 들어 “지난 주에 공부가 잘 됐는데 똑같이 세팅해줘”라고 말하면 LLM 기술만 쓸 경우 사람들이 보편적으로 선호하는 조명, 온도 등 환경정보를 사용한다. 하지만 퓨론은 해당 고객이 선호했던 과거의 최적 설정값을 기억하고 가장 유사한 맞춤형 환경을 조성해준다.