구글의 Ai 제품 생태계가 드디어 세상에 드러나고 있다. 개별 제품들의 평범한 업데이트 모음이 아니다. "어벤져스 어셈블!" 선언이다. CEO 순다르 피차이는 어제 I/O행사에서 "지난 수십 년간의 구글 인공지능 연구가 전 세계인 앞에 현실로 드러나는 중"이라고 언급했다. 대체 무슨 자신감일까. 궁금해서 자세히 좀 살펴보았다. 나 역시 작년말 친위쿠데타 이후 정신이 팔려서 2025년에 발표된 수많은 제품들을 모두 팔로업하지 못하여 스트레스?가 있었는데 이번 기회에 정리를 하고 넘어가려 한다.
1. 구글 검색 AI 모드
(잠시 회고..) 1998년 어느 날, 구독하던 컴퓨터잡지 한귀퉁이에 조그맣게 새로운 검색엔진의 등장 뉴스가 실린 것을 봤다. '더 많은 사람들이 인용한 웹페이지라면 더 중요한 가치를 지니고 있을 것이다'라는, 명료하면서도 논리적인 가정을 원리로 삼아, 인터넷 검색의 개념 자체를 재설정한 회사였다. 두 명의 젊은 대학생이라고 했다. 그들의 포부가 꽤 멋져 보였다. 놀랍게도 그 전까지의 인터넷 검색은 '사람'이 직접 카테고라이징 해준 DB를 뒤적이는 개념이었다. 그후 고작 5년 뒤, 구글은 세계 최대 웹사이트가 됐고, 애드센스라는 광고회사를 인수해서 검색결과 페이지에 광고를 붙여 돈을 쓸어담기 시작했다. (당시 다니던 우리 회사 돈까지 받아갔다.ㅎㅎ) 다시 3년 뒤에는 '유튜브'라는 웬 코딱지만한 회사를 당시 돈으로 1조6천억이라는 미친? 금액을 주고 인수했다. 지금은 유튜브 단독 가치가 800조는 될거라고 한다.. 지금의 구글은 그렇게 탄생했다.
그랬던 구글이 27년만에 검색엔진을 통째로 바꾼다. 검색에 통합된 AI 모드는 복잡한 질문을 하며 개인화되고 포괄적인 답변을 받을 수 있는 새로운 인터넷 경험을 예고하고 있다. 단순한 사실을 넘어 상세한 설명, 이미지, 관련 링크, 정확한 인용, 차트, 원한다면 논문 수준의 연구 분석까지, 사용자 맞춤형으로 구조화된 응답을 제공하게 될 것이다.
답변 뿐 아니라, 에이전트 실행이 가능하다. 티켓 자동 구매, 레스토랑 예약, 웹서핑으로 정보를 모으는 등, 여러 단계의 작업을 순차적으로 지원한다. AI 시대가 되면 사람들이 더이상 구글 검색을 하지 않을 것이라던 세간의 걱정을 뿌리치고, 구글은 이러한 결과페이지 내부에 광고를 통합해서, 기존 비즈니스 모델을 지킬뿐 아니라 오히려 수익성을 더 높일 참이다.
예를 들면, 이제 이 검색이 '쇼핑'과 붙어서, 요망스러운? 짓을 하게 된다. 예를 들어 전국의 샵을 뒤져서 나에게 정말 꼭 맞는, 내가 찾던 바로 그 옷을 찾게 만든 뒤에, 옷가게에서 옷을 직접 입어보는 듯한 가상 착용과 같은 기능을 제공한다. 앞서 말한 에이전트 기반 결제 및 구매 도우미가 따라붙어 있음은 물론이다. 물론 미국에서 먼저 서비스가 시작되고, 한국에서 체험하기까지는 시간이 좀 걸리겠지만, 그래도 일종의 사업 가능성을 샘플로 보여준 셈이다. 이런 게 또 어느 카테고리에 응용이 가능할까? 무궁무진할 것이다.
단언컨대, 이제 사용자들은 웹 링크 목록을 수동으로 탐색하는 대신, AI로부터 직접 대답을 듣는 형식에 점차 익숙해질 것이다. 그런데 이런 변화는 전통적인 웹 생태계 자체를 뿌리부터 바꿀 가능성이 높다. 만약 사용자들이 구글 AI 모드로부터 직접 충분한 답변을 얻는다면, 거기서 더 나아갈(외부 사이트로 클릭해서 나갈) 이유가 없기 때문이다. 이것이 무엇을 의미하는지는.. 눈치 빠른 분은 아시리라 생각한다.
2. 아스트라 (서치 라이브)
이번에 구글이, 다 포기한 줄 알았던 안경을 다시 가져나와, 상당한 완성도의 시연을 성공시켰다. 당신이 보는 것을 본다!라는 기치의 이 프로젝트는 사용자의 시선을 Ai가 함께 보고 이해하고 대화하는 상호작용을 가능케 한다. 사실상 '자비스'의 등장이다. 이런 게 나올 거라는 건 모두가 알고 있었지만 벌써 나올 줄은 몰랐다. 테스트 해본 사람들 반응을 보면, 어지럽지도 않고 너무나 자연스러워서 놀랍다고 한다. Android XR 기반의 새로운 안경은, '조금 두꺼운 안경테' 느낌으로 가볍다고 한다.
모니터 속, 혹은 휴대폰 액정화면 저 너머에 있던 AI를, 진실로진실로 내가 처한 상황 인식적인 영역으로 끌어들여 간극을 메워버렸다. 꼭 '안경'이라는 장치를 쓰지 않아도 된다. 휴대폰 카메라를 통해서도 실제 세계의 맥락을 Ai에게 보여주고 이해시킬 수 있다. 또 다른 웨어러블 장치가 될 수도 있다. 뭐가 나올까. 앞으로 무슨 일이 벌어질까.
3. Gemini 2.5 Pro에 'DeepThink' 도입
개인적으로 가장 임팩트가 큰 항목이다. 단순히 대화나 언어 생성을 넘어 깊은 논리적 추론, 문제 해결, 복잡한 문제를 더 작고 간편한 단계로 분해하는 능력 등, 우리가 AI에게 근본적으로 바라는 역할에 있어서 현존 최고의 성능을 달성했다. 드디어 대부분의 인간에게 "나보다 나은 AI"가 등장한 것이다.
얄궂게도, 드디어 구글이 이걸 '유료' 사용자에게만으로 제한했다. 그동안 참 너그러웠는데... 얘땜에 이번에 내 주위에 제미니 업그레이드를 하는 사람들이 많았다.
그밖에도 구글은 Gemini를 기존의 대중적인 생태계(Chrome, Gmail, Meet, Docs, Sheets 등)에 통합하고 있다. 사용자는 조만간 제미니를 별도의 AI 도구로 의식하지 않을 가능성이 높다. 나같은 사람이 페북 같은 데서 사람들에게 '제발 제미니 좀 써보세요~'라고 호소할 필요조차 없어지게 된다는 뜻이다. ㅋㅋ
4. NotebookLM
지난 며칠간 노트북LM 한국어판 출시는 나를 포함한 여러 한국인들을 흥분시켰다. 이 도구는 평범한 한 인간의 능력치를 극대화 시켜주어, 누구나 복잡한 연구 프로젝트를 수행할 수 있도록 해준다. 사용자가 여러 소스 자료(예: PDF, Google Docs, 웹사이트, YouTube 비디오)를 업로드한 다음 콘텐츠를 지능적으로 요약하고, 자료에 대한 질문에 답하며, 마인드맵, FAQ 등 특정 방식으로 응답을 형식화할 수 있도록 해준다. 팟캐스트를 만들어주거나 참여하는 기능은 특히 인기를 끌고 있다. 사용자는 어떤 주제에든 방대한 공개 데이터를 활용할 수 있을 뿐만 아니라, 거기에 자신의 개인 PDF 및 이미지 등의 자료를 결합하여 연구 보고서를 통합하고 맞춤화할 수 있어 고도로 개인화되고 심층적인 분석이 가능하다. '논문 하루에 쓰기' 이런 것은 이제 더 이상 어려운 일이 아니다. 벌써 이걸로 유튜브를 제작해서 올리는 분들이 주위에 생기고 있다.
5. Veo 3 & Imagen 4 & Flow
Veo 3는 구글의 최신이자 가장 진보된 텍스트-비디오 생성 모델로, 이전 버전인 Veo 2의 기능을 크게 향상시켰다. 특별히, 현실적인 음향 효과가 된다. 주변 배경 소음은 물론, 심지어 대화까지 포함하여 완벽한 영상 제작이 프롬프트 한 줄로 생성 가능해졌다. 영상에 음향이 더빙되는 수준이 아니라 생성 단계부터 동기화가 되므로 거의 완벽한 고품질 비디오 생성이 가능해졌다.
구글 딥마인드 CEO 데미스 하사비스는 "무성영화 시대가 끝났다"라는 상징적인 선언으로, VEO 3의 역사적 의미를 정말 잘 규정해 주었다. 이제 콘텐츠 제작의 기술적 장벽은 거의 없어졌다고 봐도 되겠다. 영화를 만들고 싶으면, 만들면 된다. 전통적인 헐리우드 시스템은 지금 매우 혼란스러울 것이다. 그들의 안녕을 빈다.
Ai 이미지 생성도 더 이상 '가짜같지' 않다. Imagen 4는 생성이미지의 사실감 및 디테일을, 현실의 그것을 모방하는 단계를 넘어서 구분이 불가능할 수준까지 끌어올렸다. 복잡한 직물 표현, 물방울, 동물의 털, 피부 질감 등 미세한 디테일에서 엄청난 선명도를 제공한다. 그리고 많은 사람들이 그동안 불만족했고 웃기기까지 하던 철자 및 타이포그래피 문제도 크게 개선되었다. 70개 이상의 언어에 사용되는 문자와 폰트를 학습해서, 왜곡되거나 잘못된 텍스트(특히 한글) 생성 문제를 해결했다.
이게 끝이 아니다. 만약 앞에서 소개한 VEO 3에 Imagen 4가 붙고, Gemini 2.5의 멀티모달 능력이 가세하면 어떻게 될까. 다른 회사라면 각각의 제품이 만들어낸 결과물을 다시 인간이 조합하여 최종 작업을 하는 것을 당연시 했겠지만, 구글은 이게 다 자기 꺼라서, 그걸 '붙여'버릴 방안도 마련했다. 'Flow' Ai는 저런 요소들을 싹 모아서 "재료(ingredients)"라고 부르며, 마치 영화 제작 스튜디오에 담당자들을 모으듯이 도구들을 배열시키고, 그걸로 영화든 뭐든 만들도록 해준다. 아직은 Adobe Premiere 등의 전문 도구에 비해 떨어진다는 평가지만, 중요한 건 Ai가 붙었다는 점이고, 무엇보다 구글은 유튜브 데이터를 보유하고 있다는 점을 생각할 때, 이게 업계 표준의 하나가 되는 것은 시간문제로 보인다.
6. Google Beam
화상통화의 세계에도 새로운 혁신이 생겼다. 안경을 안 쓰고도 3D로 보이는 상대방이라.. 마치, 둘이서 같은 물리적 공간을 공유하는 듯한 몰입감을 주는 이 효과는, 카메라, 마이크, 고급 AI 알고리즘의 정교한 조합을 활용한 착시효과로 만들어낸 홀로그램 마법이다. '더 실감나고 덜 피곤한' 화상통화. 당장 사고 싶어지는 이 디바이스는 2025년 후반에 비즈니스 고객을 대상으로 먼저 출시될 걸로 보인다. 근데 이건 애플의 아성을 넘을 수 있을지는 솔직히 미지수. 암튼, SF 영화에서나 보던 그런 화상통화를 우리도 조만간 해볼 수 있게 되겠다. (돈만 있으면)
7. MedGemma 3n: 의료용 Ai
Gemma 3n은 구글의 가벼운 '온디바이스' AI 모델로, 로컬 디바이스에서 처리되는 것이다. 스마트폰, 태블릿 또는 노트북과 같은 개인 장치에서 직접 실행되어, 데이터를 서버로 보낼 필요가 없다.
근데 바로 이 모델을 활용해서 의료용 AI가 전 세계에 무료로 풀려버렸다. 바로 메드젬마... '전 세계 의사들아, 다 와서 붙어라! 공짜다!' 라고 쓰고, '너희 지능을 공짜로 내게 바쳐라!' 라고 읽는다. 엑스레이 분류, MRI, CT 영상 해석, 의학 텍스트 이해와 임상적 추론, 환자 인터뷰, 분류, 임상 의사 결정 지원 등에 사용할 수 있는 모델이다.
이는 과거에 유명하던 AlphaFold와는 또 다른 개념이다. AlphaFold는 생명 분자의 구조와 상호작용 예측 작업에 쓰는 모델인데, 얘는 이제 버전 3로 업그레이드 되면서 '유료' 솔루션으로 제공되기 시작했다. 얘도 돈을 벌기 시작했단 뜻이다.
- - -
이상, 2025년에 새롭게 업데이트 된 Ai 제품만 뽑아서 정리해봤다. 물론 더 전문적으로 덜 유명한(덜 흥미로운) 제품들도 엄청 많다... 사용자 위치가 미국인 경우, 위의 서비스들을 좀 더 빨리(아마도 여름 이전에) 사용해볼 수 있을 것이다. 한국은 아마 빠르면 올 가을부터 순차적으로, 내년 정도에는 대부분의 제품이 체험 가능해지지 않을까 싶다.
올해는 구글의 해가 될 듯하다.
'위즈덤 프로젝트 > 인공지능(Ai)' 카테고리의 다른 글
AI 유토피아 미래예측 보고서 (2025-2030) (2) | 2025.06.12 |
---|---|
Ai에게 질린 사람들에게 - 직업 소개(?)를 겸하여 (0) | 2025.02.26 |
나의 정치성향 Ai 분석 - Grok 3 (0) | 2025.02.22 |
넷플릭스는 실제로 어떻게 작동하는가? (ARCHITECTURE) (0) | 2024.11.21 |
Know-Why가 중요해지는 Ai 시대 (0) | 2024.08.15 |