
Google запустила AI Gemini Personal Intelligence в Индии, связав историю Gmail, Google Photos и YouTube, чтобы выдавать персонализированные ответы. Индия становится третьим рынком после США и Японии: сначала доступ будет ограничен подписчиками AI Pro и AI Ultra, прежде чем в ближайшие недели он будет расширен на пользователей с бесплатными аккаунтами.
Ключевая идея — отход от традиционного поиска: вместо того чтобы задавать AI Gemini общий вопрос и получать усредненную информацию, пользователи подключают свои аккаунты Google и формулируют вопросы, опираясь на свою собственную жизнь. Пользователь может ввести: «Какие у меня планы поездки в Джайпур?» — и вместо того чтобы возвращать путеводители, AI Gemini будет искать в его Gmail подтверждения бронирований, отели и письма с маршрутом.
Функция также ссылается на недавнюю историю просмотра YouTube, чтобы показывать рекомендации и давать предложения с контекстом. Каждый ответ содержит указание источника — Gemini определяет, где нашла каждую часть информации, — чтобы пользователи могли проверить детали независимо, прежде чем действовать. Если AI Gemini ошибается, пользователи могут исправить это прямо через естественный разговор.
Интеграция с Gmail: извлекает планы поездок, встречи, чеки и личные записи из истории писем
Доступ к Google Photos: определяет места, активности и людей на основе истории изображений
Ссылка на YouTube: опирается на историю просмотров, чтобы формировать рекомендации и контекстные ответы
Указание источника: показывает, откуда получена информация, поддерживая независимую верификацию
Коррекция на естественном языке: пользователи могут мгновенно исправлять любые неточные выводы прямо в ходе разговора
Google — одна из немногих AI-компаний, которая необычно откровенно рассказывает о том, где ее система дает сбои, и Personal Intelligence от AI Gemini не является исключением.
В официальном посте в блоге Google объяснила, что Gemini может испытывать трудности с «таймингом или нюансами, особенно в части изменений в отношениях, например разводов, или ваших различных интересов». Самый наглядный пример, который привели: если в Google Photos пользователя есть сотни изображений на гольф-площадке, AI Gemini может решить, что ему нравится гольф — даже если пользователь находится там только потому, что его ребенок играет, а не из личного интереса.
Исправление простое — скажите Gemini «мне не нравится гольф», и он подстроится. Но важна лежащая в основе ограниченность: AI-рассуждения, опирающиеся на паттерны данных, могут полностью упускать человеческий смысл и контекст. Для пользователей, которые доверяют Personal Intelligence чувствительную личную информацию, это стоит понимать, прежде чем полагаться на ее выводы.
Запуск Personal Intelligence — часть намеренно ускоренного развертывания AI Gemini в Индии, которое Google рассматривает как один из своих рынков с максимальным приоритетом для развертывания. Темп был быстрым: в марте 2026 года Google запустила Gemini в Chrome для пользователей из Индии, а на прошлой неделе компания включила агентное бронирование ресторанов через AI mode в Индии — в партнерстве с Zomato, Swiggy и EazyDiner, чтобы пользователи могли искать и бронировать рестораны через разговорный AI, не покидая интерфейс Google.
В целом такая схема наводит на стратегический расчет: масштабы Индии, растущая база цифровых пользователей и конкурентная AI-среда делают этот рынок тем, где Google выбирает развертывать расширенные возможности AI Gemini быстрее, чем в большинстве других международных рынков.
Personal Intelligence подключает AI Gemini к аккаунтам пользователя в Google — Gmail, Google Photos и истории YouTube — чтобы выдавать персонализированные ответы вместо общих результатов поиска. Она извлекает информацию из фактических данных пользователя, чтобы отвечать на вопросы о планах, истории и предпочтениях, при этом указывая источники для проверки.
По состоянию на объявление от 14 апреля функция уже доступна подписчикам AI Pro и AI Ultra в Индии. Google заявила, что планирует расширить доступ для бесплатных пользователей в ближайшие недели, используя ту же поэтапную модель развертывания, которая применялась, когда функция запускалась в США в январе 2026 года.
Google публично раскрыла, что AI Gemini может делать неверные выводы на основе рассуждений, опирающихся на паттерны — потенциально неверно считывая контекст за фотографиями, письмами или историей просмотров. Пользователи могут исправлять ошибки в ходе разговора, а указание источника помогает понять, откуда могли возникнуть потенциально неточные выводы. Google рекомендует рассматривать эту функцию как отправную точку для персонального поиска, а не как авторитетный источник.