구글이 2025년 연례 개발자 컨퍼런스에서 단순한 제품 업데이트를 넘어 AI 혁신의 중심에 서겠다는 전략을 분명히 했습니다. 능동적으로 사용자와 상호작용하는 AI 어시스턴트부터 완전히 새로운 영상 생성 기술까지, 우리의 일상과 업무를 혁신할 기술들이 대거 공개되었습니다. 특히 이번 행사에서는 '실행 중심'의 AI 비전을 제시하며, AI가 단순한 도구를 넘어 모든 곳에 존재하는 동반자로 진화하고 있음을 보여주었습니다. 이 글에서는 구글 I/O 2025에서 공개된 주요 기술과 서비스를 상세히 알아보겠습니다.
프로젝트 아스트라, AI가 스스로 판단하고 행동한다
구글 I/O 2024에서 처음 선보인 프로젝트 아스트라가 1년간의 발전을 거쳐 획기적으로 진화했습니다. 이전까지의 AI 어시스턴트가 사용자의 명령에 반응하는 수동적 역할에 머물렀다면, 새롭게 공개된 프로젝트 아스트라는 스스로 주변을 관찰하고 필요시 자발적으로 개입하는 능동적 어시스턴트로 거듭났습니다.
구글 딥마인드의 리서치 디렉터 그렉 웨인은 "아스트라는 자신이 본 사건에 따라 언제 말할지를 스스로 결정할 수 있다"며 "지속적으로 관찰하면서 적절한 타이밍에 의견을 덧붙일 수 있다"고 설명했습니다. 이는 AI와 인간의 상호작용 방식에 근본적인 변화를 가져올 전망입니다.
예를 들어, 학생이 숙제를 하는 도중 오류를 범했을 때 아스트라가 이를 인지하고 지적해줄 수 있습니다. 또한 간헐적 단식을 하는 사용자의 경우, 금식 종료 시점을 알려주거나 식사 시간이 아닐 때 무언가를 먹으려는 행동을 감지해 조언을 제공할 수도 있습니다.
딥마인드 CEO 데미스 하사비스는 이런 능력을 "분위기를 읽는 능력(reading the room)"이라고 표현하며, 컴퓨터에게 언제 개입하고 어떤 어조를 사용해야 하는지 가르치는 일이 매우 도전적인 과제라고 강조했습니다.
아스트라의 실용적 활용
아스트라는 단순한 대화 상대를 넘어 실제 기기 조작까지 가능합니다. 웹과 다른 구글 제품과 연동될 뿐만 아니라, 안드로이드 기기도 직접 제어할 수 있습니다. 컨퍼런스에서 딥마인드의 프로덕트 매니저 비보 슈는 아스트라가 블루투스 헤드폰을 스마트폰과 자동으로 페어링하는 모습을 시연했습니다.
이처럼 아스트라는 기존의 '명령-응답' 구조를 벗어나 상황을 이해하고 적절한 액션을 취하는 진정한 AI 어시스턴트로 발전하고 있습니다. 일상 생활에서 마주하는 복잡한 상황들을 AI가 함께 해결해나가는 시대가 곧 현실이 될 것으로 보입니다.
제미나이 2.5, 더 강력해진 구글의 플래그십 AI 모델
이번 I/O에서 구글은 자사의 핵심 AI 모델인 제미나이의 대규모 업그레이드 버전인 '제미나이 2.5'를 공개했습니다. 제미나이 2.5는 두 가지 주요 버전으로 구성됩니다.
- 제미나이 2.5 프로(Gemini 2.5 Pro): 복잡한 작업을 처리하는 플래그십 모델
- 제미나이 2.5 플래시(Gemini 2.5 Flash): 일상적인 작업을 위해 최적화된 더 빠르고 효율적인 모델
가장 주목할 만한 신규 기능은 '딥 싱크(Deep Think)'입니다. 이 실험적 고급 추론 모드는 답변을 제시하기 전에 여러 가설을 동시에 고려하는 새로운 연구 기법을 적용했습니다. 그 성과도 인상적입니다. 딥 싱크는 2025년 미국수학올림피아드 벤치마크에서 높은 점수를 기록했으며, 프로그래밍 벤치마크인 라이브코드벤치에서도 선두를 차지했습니다. 특히 멀티모달 추론 능력을 평가하는 MMMU 테스트에서는 84%라는 높은 정답률을 기록했습니다.
반면 제미나이 2.5 플래시는 효율적인 "일꾼" 역할에 최적화되었습니다. 구글에 따르면 토큰 사용량을 20~30% 줄이면서도 더 나은 성능을 제공하도록 설계되었습니다. 이 모델은 이미 제미나이 앱을 통해 모든 사용자에게 제공되고 있으며, 6월부터는 프로덕션 환경에서도 일반적으로 사용 가능해질 예정입니다.
자연스러운 대화를 위한 새로운 기능
두 모델에는 새로운 기능이 다수 추가될 예정입니다. 대표적으로 '라이브 API(Live API)'를 통해 음성 및 영상 입력 기능과 네이티브 오디오 출력을 지원하며, 훨씬 더 자연스러운 대화 경험을 제공합니다.
사용자는 AI의 목소리 어조, 억양, 말투를 자유롭게 지정할 수 있습니다. 예를 들어, 재미있는 이야기를 들려줄 때는 극적인 톤으로 말해달라고 요청할 수 있습니다. 또한 텍스트 음성 변환(TTS) 기능이 처음으로 다중 화자를 지원하며, 24개 이상의 언어를 지원하고 언어 간 전환도 끊김 없이 자연스럽게 수행됩니다.
보안 측면에서도 개선이 이루어졌습니다. 간접 프롬프트 삽입(indirect prompt injection)에 대한 보안 대응 체계가 대폭 강화되었습니다.
구글 서비스 전반으로 확산되는 AI 통합
구글은 AI를 자사의 기존 서비스 전반에 빠르게 통합하고 있습니다. 구글 검색에는 'AI 모드(AI Mode)'가 적용되기 시작했으며, 현재 미국 내 모든 사용자에게 제공되고 있습니다. 검색과 관련된 새로운 기능은 AI 모드에서 먼저 공개된 후, 일반 검색 기능으로 확장될 예정입니다.
특히 주목할 만한 기능은 '딥 서치(Deep Search)'입니다. 이 기능은 복잡한 검색 과정을 AI가 대신 수행하며, 여러 출처의 정보를 분석·비교·통합해 사용자가 원하는 핵심 정보를 제공합니다. 또한 '서치 라이브(Search Live)'는 실시간 정보 탐색을 지원합니다. 스마트폰 카메라를 건물에 비추면 해당 건물의 역사, 건축 양식, 운영 시간 등 관련 정보를 즉시 화면에 제공합니다.
지메일의 스마트한 진화
지메일도 AI 업그레이드의 혜택을 받았습니다. 개인화된 '스마트 답장(Smart Replies)' 기능은 사용자의 글쓰기 스타일, 이전 대화 이력, 심지어 캘린더 일정까지 반영합니다. 구글 관계자의 설명에 따르면, 오후 3시에 중요한 일정이 입력되어 있다면 스마트 답장은 회의 일정을 단순히 수락 혹은 거절하는 대신, 오후 4시로 일정을 변경하자고 제안할 수 있습니다.
또 다른 흥미로운 기능은 '생각 요약(Thought Summaries)'입니다. 이 기능은 AI의 사고 과정을 사용자에게 투명하게 보여줍니다. 사용자는 AI가 특정 결론에 도달한 이유와 그 과정에서 고려한 논리적 판단 흐름을 파악할 수 있습니다. 개발자를 위해서는 '생각 예산(Thinking Budgets)' 기능이 추가되었습니다. 이를 통해 AI 애플리케이션의 '사고 시간'을 개발자가 관리하고 최적화할 수 있습니다.
미디어 제작의 혁명을 가져올 AI 도구들
구글은 이미지, 영상, 음악 제작 방식을 혁신하는 다양한 AI 도구도 공개했습니다. 가장 눈에 띄는 '플로우(Flow)'는 영화 제작자가 텍스트 설명을 입력하면 복잡한 영상 장면을 생성하는 도구입니다. 이런 AI 도구는 비전문가뿐만 아니라 전문가도 적극 활용하고 있습니다. 실제로 이번 컨퍼런스에서는 <더 웨일>과 <블랙 스완>으로 유명한 영화감독 대런 아로노프스키가 창작 과정에 AI를 활용한다는 점이 소개되었습니다.
이미지 생성 시스템의 최신 버전인 '이마젠 4(Imagen 4)'도 함께 공개되었으며, 디테일과 사실감 측면에서 새로운 기준을 제시할 것으로 기대됩니다. 영상 생성 부문에서는 '베오 3(Veo 3)'가 이와 유사한 수준의 기술적 진보를 목표로 개발되고 있습니다.
음악 창작의 미래, 리리아 2
오디오 분야에서는 '리리아 2(Lyria 2)'가 주목받고 있습니다. 구글의 음악 생성 시스템인 리리아는 이제 완성된 음악을 제작하며, 기존 곡을 편집하는 기능까지 지원합니다. 또한 구글은 생성형 콘텐츠의 출처를 확인하고 표시할 수 있는 시스템인 '신스ID(SynthID)'도 함께 소개했습니다. 이 도구는 생성된 이미지나 영상에 눈에 보이지 않는 워터마크를 삽입하며, 이후 워터마크를 통해 진위를 검증할 수 있습니다.
이는 인간이 만든 콘텐츠와 AI가 생성한 콘텐츠를 구분하기 점점 어려워지는 환경에서 투명성을 확보하기 위한 중요한 조치로 평가됩니다. 미디어 창작의 민주화라는 긍정적 측면과 함께, 책임감 있는 AI 기술 발전을 위한 구글의 노력이 엿보이는 대목입니다.
구글 빔, 몰입형 경험의 새 시대를 열다
구글은 '프로젝트 스타라인'을 '구글 빔(Google Beam)'으로 리브랜딩하고, 새로운 XR 기술을 공개하며 몰입형 경험이 자사 미래 전략의 핵심임을 분명히 했습니다. 2021년에 처음 공개됐던 프로젝트 스타라인의 후속작인 구글 빔은 '원격 존재감(telepresence)' 기술에서의 중대한 진보를 의미합니다. 구글에 따르면 새로운 버전은 공간을 적게 차지하고 에너지 소비도 줄었으며, 여전히 몰입감 있는 경험을 제공합니다.
구글 미트(Google Meet)에 적용된 실시간 음성 번역 기능도 인상적입니다. 대화를 실시간으로 번역하고 자막을 원하는 언어로 표시하는 동시에, 화자의 음성을 해당 언어로 합성해 전달합니다. 이는 언어 장벽을 허무는 획기적인 기술로 평가받고 있습니다.
안드로이드 XR과 스마트 글라스의 미래
안드로이드 XR(Android XR)은 구글이 증강현실 영역으로 본격 진입하고 있음을 보여주는 플랫폼입니다. 이 플랫폼은 개발자가 스마트폰, 태블릿, XR 글라스를 넘나드는 몰입형 애플리케이션을 구현할 수 있도록 다양한 도구를 제공합니다.
구글과 협력해 개발된 엑스리얼(Xreal)의 '프로젝트 아우라(Project Aura)' 프로토타입은 AR 글라스의 미래를 보여주는 사례입니다. 이 스마트 글라스는 일반 안경과 거의 구분되지 않을 정도로 자연스러운 디자인을 갖추고 있어, 기술이 사회적으로 받아들여지기 위한 중요한 진전을 이루었다는 평가를 받고 있습니다.
에이전틱 AI, 자동화의 새로운 지평을 열다
'에이전틱 AI(Agentic AI)', 즉 스스로 계획하고 실행하는 AI 시스템은 이번 행사의 핵심 주제였습니다. 인간과 기계 간 상호작용 방식에 있어 패러다임 전환을 의미하는 이 기술은 많은 관심을 받았습니다.
특히 주목할 만한 프로젝트는 '프로젝트 마리너(Project Mariner)'입니다. 2024년 12월 처음 공개된 이 솔루션은 이제 최대 10가지 작업을 동시에 수행할 수 있는 다중 에이전트 시스템으로 발전했습니다. 이들 에이전트는 정보 검색, 예약, 구매 등의 작업을 병렬적으로 처리할 수 있습니다.
에이전트 모드와 체크아웃 기능
'에이전트 모드(Agent Mode)'는 더 진화된 개념으로, AI가 사용자의 의도를 이해하고 목표 달성을 위한 가장 효율적인 방법을 스스로 선택해 실행합니다. 구글이 공개한 데모에서는 "주말에 베를린 여행 계획해 줘"라는 단순한 명령 하나로 항공편·호텔·즐길 거리를 조사하고 전체 일정표를 구성하는 일련의 작업이 자동으로 수행되었습니다.
'에이전틱 체크아웃(Agentic Checkout)'은 온라인 쇼핑 경험을 혁신할 기능입니다. AI 에이전트가 최적의 상품을 찾고, 양식을 자동으로 입력하며, 결제까지 완료하는 전 과정을 사용자의 최소 개입으로 수행할 수 있습니다.
구글은 에이전틱 기능 개발에 있어 보안성과 책임감을 최우선 가치로 두고 있다고 강조했습니다. 에이전트는 자신의 행동을 설명하고 중요한 결정에 대해서는 사용자에게 질문하며, 언제든 사용자가 개입해 흐름을 중단할 수 있도록 설계되었습니다.
과학 연구에서도 빛을 발하는 AI
이번에 공개된 AI 연구용 애플리케이션들은 다양한 과학 분야에 걸쳐 활용될 수 있는 특화된 솔루션입니다. 제미나이의 과학 문헌 이해력과 도메인 특화 모델 및 시뮬레이션 기능을 결합해 정밀한 분석과 예측을 지원합니다.
인상적인 시연 중 하나는 딥마인드의 AI 시스템 알파폴드(AlphaFold)의 연구 성과를 기반으로 한 단백질 접힘 예측 애플리케이션이었습니다. 신형 버전은 단백질의 3차원 구조 예측에 그치지 않고, 다른 분자와의 상호작용까지 시뮬레이션했습니다. 이는 신약 개발 분야에서 중요한 기술적 진전으로 평가받고 있습니다.
코딩과 과학적 협업을 위한 AI 도구
'줄스 코딩 어시스턴트(Jules Coding Assistant)'는 AI 기반 소프트웨어 개발 분야의 획기적인 도약입니다. 일반적인 코드 어시스턴트와 달리, 줄스는 프로그래밍 언어뿐 아니라 코드의 의도와 프로젝트 전반의 맥락까지 이해합니다.
'캔버스(Canvas)'는 과학적 협업을 위한 구글의 협업형 AI 환경으로, 연구자들이 복잡한 데이터를 시각화하고 모델을 개발하며 결과를 해석하는 모든 과정을 하나의 공유 환경에서 수행할 수 있도록 설계되었습니다.
AI 혁신의 미래와 한계, 우리는 어떻게 준비해야 할까?
구글 I/O 2025는 AI 기술의 놀라운 발전을 보여주었지만, 이런 기술의 한계와 위험성에 대한 인식도 필요합니다. 아무리 발전했다 해도 AI 시스템은 여전히 오류 가능성을 내포하고 있습니다. 사실을 왜곡하거나, 상관관계를 잘못 해석하거나, 예상치 못한 상황에서 제대로 작동하지 않을 수 있습니다.
데이터 보호와 보안 측면에서도 우려가 있습니다. AI 시스템이 더 많은 컨텍스트 정보를 가질수록 성능은 향상되지만, 그만큼 민감한 데이터를 더 많이 처리하게 됩니다. 특히 AI 에이전트가 사용자를 대신해 행동할 수 있는 상황에서는 보안 체계가 더욱 중요해집니다.
사회적 파급력도 예측하기 어려운 영역입니다. AI로 인해 많은 직업이 변화하거나 사라질 가능성이 있으며, 이런 기술이 기존의 사회적 불평등을 심화시킬 위험도 존재합니다. 고성능 AI에 접근하기 위한 자원은 모두에게 평등하게 분포되어 있지 않기 때문입니다.
혁신과 균형 사이에서
구글은 I/O 2025를 통해 AI 혁신의 최전선에 서 있음을 다시 한번 입증했습니다. 그러나 이 기술의 진정한 성공은 벤치마크나 데모가 아니라 실제로 사람들의 삶을 얼마나 향상시키는지, 인간의 자율성과 프라이버시를 존중하면서 더 창의적이고 생산적인 삶을 살 수 있도록 돕는지에 달려 있습니다.
여러분은 구글 I/O 2025에서 공개된 기술 중 어떤 것이 가장 흥미로웠나요? 일상 생활에서 AI 어시스턴트가 더 능동적으로 활동하는 것에 대해 어떻게 생각하시나요? 댓글로 여러분의 생각을 공유해주세요!
자주 묻는 질문 (FAQ)
Q: 프로젝트 아스트라는 언제부터 사용할 수 있나요?
A: 구글은 아직 프로젝트 아스트라의 정확한 출시 일정을 공개하지 않았습니다. 현재는 제한된 테스트 단계에 있으며, 단계적으로 확대될 예정입니다.
Q: 제미나이 2.5는 어떤 언어를 지원하나요?
A: 제미나이 2.5는 24개 이상의 언어를 지원하며, 한국어도 포함되어 있습니다. 특히 다중 화자 지원과 언어 간 자연스러운 전환이 가능합니다.
Q: 에이전틱 AI의 보안은 어떻게 보장되나요?
A: 구글은 에이전틱 기능에 있어 사용자가 중요 결정에 개입할 수 있고, 언제든 프로세스를 중단할 수 있도록 했으며, 에이전트의 모든 행동을 투명하게 설명하도록 설계했습니다. 또한 간접 프롬프트 삽입에 대한 보안 대응 체계도 강화했습니다.
Q: 구글 빔은 어떤 하드웨어가 필요한가요?
A: 구글 빔의 정확한 하드웨어 요구사항은 아직 공개되지 않았습니다. 다만 이전 버전보다 공간을 적게 차지하고 에너지 소비도 줄었다고 합니다.
Q: 이러한 AI 기술이 일자리에 미치는 영향은 무엇인가요?
A: AI 기술의 발전으로 일부 직업은 변화하거나 사라질 수 있지만, 동시에 새로운 직업과 기회도 창출될 것입니다. 중요한 것은 이러한 변화에 적응하고 AI와 협업하는 역량을 개발하는 것입니다.