새로운 인공지능(AI) 시대가 열리고 있다. 한국의 AI 기술이 글로벌 플랫폼에 종속되지 않기 위해서는 이미 공개된 기술을 따라잡는 수준에 그칠 수 없다고 판단했다.정석근 네이버 클로바 대표
이제 이 기술을 선점하는 일이 중요해졌다. 이 기술을 확보하지 못하면 다른 기업의 모델을 사서 써야 하기 때문에 AI 기술 자립도가 떨어지고 앞으로의 경쟁에서 밀릴 수밖에 없다.KT 관계자
‘초거대(hyperscale) AI’라는 신기술을 두고 하는 얘기다. 초거대 AI는 한번 개발되면 기업이 원하는 모든 사업 분야에 바둑의 알파고 수준으로 응용할 수 있는 차세대 AI로 주목받고 있다. 국내 IT업계는 이 기술을 제때 확보하지 못하면 다른 기업이나 국가의 기술에 의존하게 돼 결국 업계에서 도태될 것이라는 위기의식을 갖고 앞다퉈 자체 개발 경쟁에 뛰어들고 있다.
26일 IT업계에 따르면 최근 네이버, KT, SK텔레콤, 카카오, LG가 잇따라 자체 개발한 초거대 AI를 공개하거나 개발 계획을 발표했다. 초거대 AI는 대용량의 데이터를 빠르게 처리할 수 있는 슈퍼컴퓨터를 기반으로 딥러닝(심층학습) 효율을 크게 높인 차세대 AI다.
◇ 전 분야서 알파고처럼…글로벌 빅테크 개발 나섰다
2016년 구글 딥마인드가 딥러닝 기술로 개발한 AI ‘알파고’가 바둑에만 특화됐다면, 초거대 AI는 적은 데이터만으로 빠른 학습이 가능해 기업이 원하는 여러 서비스에 응용할 수 있을 것으로 기대받는다. 가령 네이버는 검색과 번역 엔진의 성능 향상, 스토리만 입력하면 자동으로 웹툰을 그려주는 AI 창작 서비스 개발 등을 위해, LG는 250년 치 전 세계 화학 논문·특허 조사를 통한 차세대 배터리 소재 발굴, 계열사별 고객센터용 고성능 챗봇 개발 등을 위해 이 기술 확보에 열을 올리고 있다.
초거대 AI를 만들려면 슈퍼컴퓨터의 도움을 받아 ‘파라미터’라는 AI 성능을 크게 높여야 한다. 파라미터는 인간 뇌의 학습·연산 기능을 담당하는 ‘시냅스’와 비슷한 역할을 한다. 파라미터 수가 많아질수록 AI 성능이 높아진다. 해외 IT매체 지디넷에 따르면 2019년까지 구글, 페이스북 등이 보유했던 AI들은 파라미터가 수억개, 마이크로소프트(MS)가 170억개 수준이었다. 인간 뇌 속의 시냅스 수는 100조개다. 사람처럼 다방면에서 지적인 활동을 하기엔 AI가 학습할 수 있는 데이터 양과 속도에 한계가 있었던 것이다.
지난해 5월에야 세계 최초의 초거대 AI로 평가받는 모델이 탄생했다. 일론 머스크가 설립한 AI 전문기업 ‘오픈AI’가 개발한 ‘GPT-3’라는 AI다. 파라미터는 1750억개다. GPT-3는 기존 딥러닝 AI보다 적은 양의 단어만 학습하고도 사람과 자연스럽게 대화하고 문장과 소설을 창작할 수 있다고 알려져 있다. 실제로 GPT-3는 트위터를 통해 “우리는 우리가 옳다는 것을 결코 확신할 수 없으며, 오직 우리가 틀렸다는 것만 확신할 수 있다” 등 기존에 없던 격언을 만들어 주기적으로 업로드하고 있다.
이로부터 1년이 지난 지금 글로벌 빅테크들은 GPT-3를 뛰어넘는 초거대 AI 확보에 나선 것으로 전해졌다. 지디넷은 “기업들의 극비 AI 프로젝트에 따르면 이미 1조개 이상의 파라미터를 사용하는 (초거대 AI) 모델들이 개발되고 있다”며 “대규모 데이터센터를 가진 구글 같은 빅테크들에게 그것(파라미터 1조개)은 아마 한계가 아닐 것이다”라고 전했다.
◇ 네이버, 美 GPT-3 뛰어넘는 국내 최초 모델 공개…”신기술 주도권 잡겠다”
국내 기업들도 글로벌 빅테크에 뒤처지지 않기 위해 각자 수천억원을 투자해 자체 개발에 나섰다. 지난해 10월 국내에서 가장 먼저 개발 계획을 발표했던 네이버는 전날 AI 행사 ‘네이버 AI 나우’에서 중간 성과를 공개했다. 네이버는 자사의 초거대 AI ‘하이퍼클로바’의 파라미터가 GPT-3(1750억개)보다 많은 2040억개라고 밝혔다. 자연어(영어·한국어 등 일상에서 쓰는 언어) 데이터 학습량은 GPT-3의 6500배 이상이다. 네이버는 “GPT-3가 영어 중심으로 학습해 국내 기업들이 도입하기엔 한계가 있지만, 하이퍼클로바는 학습 데이터의 97%가 한국어다”라며 “우리나라가 AI 주권을 확보한다는 의미도 있다”고 했다.
네이버는 하이퍼클로바 개발을 위해 지난해 10월 수백억원을 들여 700페타플롭스(PF) 성능의 슈퍼컴퓨터를 도입했다. 1페타플롭스는 1초에 1000조번 데이터 연산을 수행할 수 있는 컴퓨터 성능으로, 현재 공식적으로 인정받고 있는 세계에서 가장 빠른 슈퍼컴퓨터인 일본의 후가쿠(富岳)는 400~500페타플롭스, 테슬라가 자율주행차용 AI 탑재를 위해 개발을 목표하는 슈퍼컴퓨터가 1000페타플롭스 수준인 것으로 알려졌다. 네이버는 최근 서울대, 카이스트(KAIST)와 각각 수백억원 규모의 초거대 AI 공동연구소를 설립하기로 하는 등 관련 투자를 늘려가고 있다.
네이버는 하이퍼클로바를 자사 서비스의 품질을 높이는 데 우선 사용할 계획이다. 이미 이달 초 검색엔진에 일부 도입해, 사용자가 검색어를 잘못 입력해도 올바른 단어로 바꿔주거나 적절한 검색어를 추천하는 기능을 선보였다. 네이버 쇼핑에 입점한 판매자를 대신해 상품 마케팅 문구를 자동으로 작성해주고, 창작자를 대신해 스토리만 입력하면 웹툰을 그려주고, 학생을 대신해 공부해야 할 내용을 빠르게 요약하거나 모르는 내용을 알려주는 일 등이 가능해질 것이라고 네이버는 설명했다. 다른 기업에 이 AI를 판매하는 B2B(기업 간 거래) 사업도 계획 중이다.
네이버 사내독립기업(CIC) 클로바(CLOVA)의 정석근 대표는 전날 기조발표에서 “글로벌 기술 대기업들은 대형 AI 모델이 가져올 파괴적 혁신에 대한 기대로 투자를 가속화하고 있다”며 “한국의 AI 기술이 글로벌 플랫폼에 종속되지 않기 위해서는 이미 공개된 기술을 활용하고 따라잡는 수준에 그칠 수 없다고 판단해 하이퍼클로바를 개발하게 됐다”고 말했다.
◇ KT·SKT·카카오·LG 추격…정부 지원책 마련 중
KT는 2017년 출시했던 음성인식 AI ‘기가지니’를 GPT-3를 뛰어넘는 초거대 AI로 발전시킬 계획이다. 2019년 ‘AI 컴퍼니’로 거듭나겠다는 포부로 2023년까지 3000억원을 투자하고 AI 전문인력 1000명을 육성하기로 하는 등 차세대 AI 분야에 일찍이 투자를 시작한 바 있다. 지난 23일엔 ‘초거대 AI 개발’을 명시적인 목표로 삼고 네이버처럼 카이스트와 공동 AI연구소를 세우기로 했다. KT 관계자는 “올해 하반기에 연구소를 출범하고 (초거대 AI용) 컴퓨터 인프라를 구축할 예정이다”라며 “이르면 내년부터 연구 성과들이 나올 것”이라고 말했다.
후발주자인 SK텔레콤과 카카오는 지난 3월 서로 손잡고 초거대 AI 공동 개발에 속도를 내기로 했다. 1500억개 파라미터를 갖춘 AI를 연내 개발하는 것이 우선적인 목표인 것으로 알려졌다.
LG는 올해 하반기까지 6000억개 파라미터, 내년 상반기까지 1조개가 넘는 파라미터를 갖춘 초거대 AI를 각각 만들겠다는 계획이다. 파라미터 수로만 보면 국내 최대 규모다. LG는 소재 발굴, 소프트웨어 코딩, 논문 분석과 학술 데이터베이스 구축, 디자인 시안 제작 등에 초거대 AI를 활용할 계획이다. AI 개발 비용 1000억원을 포함해 3000억원을 투자할 계획인 것으로 전해졌다.
정부도 이 기업들을 후방 지원하겠다는 의지를 드러냈다. 과학기술정보통신부 관계자는 “정부가 어떤 역할을 할 수 있을지 (초거대 AI를 개발 중인) 기업들과 계속 논의를 하고 있다”며 “경제적, 제도적 지원책 마련을 위해 내부에서 검토 중이다”라고 말했다.
과기정통부는 또 초거대 AI가 결국 슈퍼컴퓨터 구축을 위한 자본 싸움이 될 경우 국내 기업이 글로벌 빅테크에 밀릴 수 있다는 점을 고려해, 작은 규모로도 높은 성능을 낼 수 있는 초거대 AI 이후의 AI를 연구하는 ‘사람 중심 AI 실현을 위한 차세대 AI 핵심 원천기술 개발’ 사업을 내년부터 5년간 시행한다. 예산 3000억원을 들여 내년부터 세부적인 연구과제를 선정할 예정이다.