" ‘그것(AI)은 모두를 위한 것이었고, 우린 이제 시작입니다.’ "
14일(현지시간) 구글의 연례 개발자 회의인 I/O 2024의 개막을 알리는 영상의 마지막 멘트가 나오고, 무대 위로 순다 피차이 구글 최고경영자(CEO)가 모습을 드러냈다. 평상시처럼 회색 셔츠에 청바지를 입은 피차이 CEO는 “구글의 I/O는 의상이 바뀌지 않는 ‘에라스 투어’(테일러 스위프트의 전세계 순회공연)”라며 농담을 던졌다.14일(현지시간) 미국 캘리포니아 마운틴뷰 쇼어라인 앰피시어터에서 열린 구글 I/O 2024에서 순다 피차르 구글 CEO가 구글의 AI 방향성에 대해 발표하고 있다. 홍상지 기자
이날 행사가 열린 미국 캘리포니아 마운틴뷰의 대형 원형극장 쇼어라인 앰피시어터에는 전세계에서 온 개발자·기자·크리에이터 등 총 4300명의 인파가 몰렸다. 행사는 온라인으로도 생중계 됐다. 향후 구글의 방향성을 알릴 본격적인 발표를 앞두고 모두의 시선이 집중되자, 피차이 CEO가 말을 이었다. “구글은 본격적인 제미나이의 시대로 접어들었다.”
이게 왜 중요해
현재 구글의 상황은 녹록지 않다. ‘1인자’ 자리를 지켜오던 검색 엔진 시장에서 점유율이 조금씩 빠지고 있고, 생성 인공지능(AI) 분야에선 늘 새로운 기술로 치고 나가는 오픈AI에 뒤처진다는 평가를 받고 있다. 오픈AI는 구글 I/O 바로 전날인 13일 음성 대화 기능 등이 담긴 새로운 AI 모델 ‘GPT-4o’를 발표하면서 스포트라이트를 선점했다.이런 가운데 구글은 구글에 가장 유리한 선택지를 골랐다. 검색엔진·구글 포토·워크스페이스·안드로이드 등 이미 전세계 약 20억 명이 일상적으로 쓰고 있는 구글 제품 전반에 자사 AI 모델인 ‘제미나이’를 녹이겠다는 것. 탄탄히 쌓아온 구글의 서비스들을 기반으로 소비자들의 일상 곳곳에 제미나이를 노출해 새로운 기회를 만들겠다는 전략이다.
모델은 더 빠르고, 가볍게: 구글은 먼저 제미나이 울트라 1.0을 탑재한 챗봇인 제미나이 어드밴스드 구독자 대상으로 가장 최근 AI 모델인 제미나이 1.5 프로를 제공하겠다고 밝혔다. 현재 어드밴스드 구독자 수는 약 100만 명이다. 제미나이 1.5 프로보다 가벼우면서도 멀티모달(텍스트, 음성, 이미지, 영상 등 여러 데이터를 입출력할 수 있는 모델) 추론 기능과 대용량 정보 처리 기능을 갖춘 제미나이 1.5 플래시도 공개했다. 이날 발표자로 무대에 오른 데미스 하사비스 구글 딥마인드 CEO는 “가볍지만 방대한 양의 정보를 추론하는 능력이 뛰어나 긴 문서나 표에서 데이터를 추출하고, 요약하는 데 탁월한 성능을 발휘할 것”이라고 말했다.
김영희 디자이너
20억 사용자 구글 라인업에 녹인다: 주차장에서 요금을 내려고 하는데, 차량 번호가 기억나지 않는다면? 언제 차 사진을 찍어놨을지 모를 사진첩을 뒤적이거나, 다시 차로 돌아가는 수밖에 없다. 근데 구글 포토 이용자라면? 구글 포토에 탑재된 제미나이에 ‘내 차 번호가 뭐였지?’ 물어보면 된다. 그러면 제미나이가 내 사진 속에서 자주 등장하는 차량을 인식한 후, 차 번호를 알려준다. 이 기능은 올 여름 출시될 예정.
지메일·문서·드라이브 등 구글 워크스페이스에도 제미나이 1.5 프로가 도입돼 여러 기능들이 추가된다. 예를 들면 지메일에서는 사이드 패널에 ‘중앙일보로부터 온 메일 요약해줘’‘계약서 파일 받은 거 찾아줘’ 등의 질문을 하면 메일함을 일일이 직접 열어볼 필요 없이 제미나이가 바로 찾아주는 식이다. 글에 첨부된 파일까지 분석해 추론하는 능력도 갖췄다. 구글에 따르면 제미나이 1.5 프로는 1500페이지 분량 문서를 한 번에 이해하거나, 100개의 e메일이나 1시간 분량 동영상을 한 번에 요약할 수 있다. 구글은 이밖에 안드로이드 운영체제를 적용한 스마트폰에 온디바이스용 AI 모델인 제미나이 나노를 탑재하는 등 기존 제품과 AI를 결합하는 시도를 이어갈 방침이다.
앞으로는
이날 I/O 현장에서는 2분 가량의 영상 하나가 재생됐다. 한 여성이 스마트폰으로 사무실을 여기저기 비추며 제미나이와 음성 대화를 나눈다. 책상에 놓여 있는 물건이 무엇인지 묻거나 컴퓨터 화면에 나와있는 코드가 어떤 코드인지, 창밖에 보이는 지역이 어디인지도 물어본다. 제미나이는 “고주파 스피커입니다” “암호화를 정의하는 코드입니다” “런던의 킹스크로스 지역인 것으로 보입니다”라고 바로바로 답한다. 중간에 여성이 “혹시 내 안경 못봤어?” 물어보자 “책상 위 빨간 사과 옆에 있다”고 알려주기도 한다. 카메라에 담긴 장면을 기억해 이를 기반으로 위치를 스스로 파악한 것이다. 스마트 안경을 쓰고도 같은 기능을 구현했다.14일 구글이 공개한 AI 에이전트 프로젝트인 아스트라 데모 영상. 구글 유튜브 캡처
이 영상은 구글이 인간처럼 보고, 듣고, 배울 수 있는 미래형 AI 에이전트를 개발하기 위해 시작한 ‘프로젝트 아스트라’의 데모 영상이었다. AI 사업 책임자로서 올해 구글 I/O에 처음 등장한 데미사 하사비스 CEO는 “에이전트가 실제로 유용하게 쓰이려면 사람과 마찬가지로 복잡하고 역동적인 세상을 이해하고 이에 대응해야 하며, 보고 들은 것은 받아들이고 조치를 취할 수 있어야 한다”고 말했다. 시연 영상 등을 통해 공개된 기술은 연내 구글 제품에 일부 탑재할 예정이다.
‘큰 한 방’ 보다는 구글 제품에 자연스럽게 제미나이를 녹여 구글만의 AI 생태계를 구축하고, ‘AI 에이전트’라는 미래 청사진까지 그린 구글의 전략이 얼마나 효과가 있을지는 아직 미지수다. 이미 마이크로소프트(MS)는 오픈AI의 챗GPT를 기반으로 한 코파일럿을 전 제품에 탑재한 바 있고, 아스트라의 데모 영상도 I/O 전날 오픈AI가 공개한 ‘GPT-4o’와 비슷한 성격의 음성 비서 모델이다. AI 생태계 구축서부터 ‘인간 같은 AI 에이전트’ 시장까지, 가는 길마다 겹치는 빅테크 간 경쟁은 앞으로 더 치열해질 전망이다.