Google усердно работает над тем, чтобы исключить ложные и потенциально опасные ответы из результатов поиска ИИ. Тем не менее, новая функция «Обзор ИИ» иногда выдает шутки и сарказм в социальных сетях и на сатирических сайтах за факты.
Недавно опубликованные результаты поиска Google с искусственным интеллектом привлекли много внимания, но причины не такие положительные, как ожидалось. В рамках своей недавно запущенной стратегии «Twin Times» технологический гигант объявил о множестве новых инструментов искусственного интеллекта на прошлой неделе. За этим последовало существенное изменение в фирменном сервисе веб-поиска, где ответы на вопросы в результатах поиска теперь отображаются на естественном языке непосредственно поверх ссылок на веб-сайты.
В то время как обновление Google делает поисковую технологию более продвинутой и способной отвечать на более сложные вопросы пользователей, оно также вызывает некоторые опасения. Например, ИИ иногда может предоставлять пользователям неверную или вводящую в заблуждение информацию при обработке результатов поиска, что особенно проблематично, когда речь идет о деликатных темах, таких как евгеника.
Евгеника была ошибочно использована для некоторых бесчеловечных политик истории, поэтому точность и чувствительность ее информации особенно важны. Кроме того, у ИИ также есть проблема недостаточной точности при идентификации некоторых специфических вещей, таких как различение ядовитых и неядовитых грибов.
Это напоминает нам о необходимости быть особенно осторожными при использовании инструментов поиска ИИ для запросов, связанных со здоровьем и безопасностью, и по возможности обращаться за профессиональным подтверждением.
Искусственный интеллект Google, предоставляя ответы на вопросы «обзора ИИ», иногда ссылается на контент из социальных сетей, таких как Reddit, который, возможно, изначально предназначался для юмористических или саркастических целей. Это привело к тому, что пользователям предлагались явно ошибочные или нелепые ответы.
Например, один пользователь сообщил, что на вопрос о том, как бороться с депрессией, искусственный интеллект Google на самом деле предложил «спрыгнуть с моста Золотые Ворота». Другие ответы абсурдно подтверждают антигравитационную способность, согласно которой люди могут оставаться в шортах до тех пор, лонг не смотреть вниз.
Эти примеры показывают, что, несмотря на то, что ИИ добился прогресса в предоставлении результатов поиска, все еще существуют недостатки в точности и надежности, которые нуждаются в дальнейшем улучшении.
Партнерство Google с Reddit призвано облегчить пользователям поиск и участие в интересующих их сообществах и обсуждениях. Однако сотрудничество также сопряжено с некоторыми рисками, особенно когда ИИ обрабатывает контент с Reddit. Поскольку ИИ может не иметь возможности распознать подлинность или контекст информации, он может принять и процитировать информацию на Reddit без дискриминации.
Такое неразборчивое восприятие информации может привести к появлению вводящих в заблуждение или даже нелепых предложений в результатах поиска. Например, ИИ однажды дал неуместное предложение о том, что дети должны съедать хотя бы один маленький камень в день, а также неверно пометил это предложение как исходящее от геолога из Калифорнийского университета в Беркли. Этот пример иллюстрирует, как ИИ может вводить в заблуждение, игнорируя достоверность и пригодность информации при обработке информации в Интернете.
В то время как Google удалил или исправил некоторые явно нелепые ответы, модели, созданные искусственным интеллектом, иногда выдают неточные или фиктивные ответы, явление, известное как «галлюцинации». Эти «галлюцинации» можно считать неправдивыми утверждениями, потому что ИИ создает нечто, что не соответствует действительности.
Это говорит о том, что ИИ необходимо совершенствовать распознавание подлинности и контекста информации, а также его необходимо дополнительно оптимизировать, чтобы обеспечить точность и надежность предоставляемой информации.
В то же время искусственный интеллект Google ошибочно рекомендовал использовать клей, чтобы сыр не соскальзывал с пиццы, предложение, которое исходит из комментария десятилетней давности на Reddit.
Модель ChatGPT от OpenAI была сфабрикована, включая ложное обвинение профессора права Джонатана Терли в сексуальном насилии на основании поездки, в которой он не участвовал. Этот инцидент отражает тот факт, что ИИ может быть слишком самоуверенным в обработке информации и не в состоянии точно отличить подлинность контента от ложности контента в Интернете.
Кроме того, чрезмерная самоуверенность ИИ может привести к тому, что он будет без разбора принимать всю информацию в Интернете за истину, и это доверие может привести к ошибочным суждениям, таким как ошибочное возложение вины на бывших руководителей Google и ошибочное вынесение обвинительных вердиктов против компаний в контексте антимонопольного законодательства.
Когда пользователи ищут в Google вопросы, связанные с поп-культурой, функция поиска ИИ иногда может привести к некоторым юмористическим или запутанным результатам. Это может быть связано с тем, что ИИ может столкнуться с проблемами в понимании контента поп-культуры, особенно если он содержит юмор, сатиру или определенный социальный контекст. Искусственному интеллекту может быть трудно точно понять истинное намерение этого контента, что приводит к предложениям или ответам, которые могут не соответствовать ожиданиям пользователя, вызывая некоторые неожиданные реакции.
、
Кроме того, несмотря на то, что ИИ обновил свои рекомендации в отношении проглатывания детьми камней, отметив, что возможные причины включают любопытство, проблемы с обработкой сенсорной информации или расстройства пищевого поведения, эти ответы по-прежнему требуют профессиональной оценки и не должны использоваться в качестве окончательного руководства. Это подчеркивает необходимость проявлять особую осторожность и обращаться за профессиональной консультацией при использовании информации, предоставляемой ИИ, особенно когда речь идет о здоровье и безопасности.
Заключение:
Несмотря на то, что функция поисковых подсказок Google AI добилась значительных технологических успехов, ее недостаточная точность и надежность все еще могут привести к серьезным последствиям. От беспорядочного принятия информации на платформах социальных сетей, таких как Reddit, до вводящей в заблуждение информации по чувствительным темам, таким как евгеника, до неправомерной самокриминализации в правовом поле, эти инциденты выявили значительные недостатки в проверке и оценке информации ИИ.
Кроме того, проблема моделей ИИ, фабрикующих факты или создающих «галлюцинации», также показывает их ограниченность при решении сложных задач. Поэтому мы должны проявлять бдительность в отношении информации, предоставляемой ИИ, обращаться за профессиональной консультацией и призывать разработчиков и исследователей постоянно совершенствовать технологию ИИ, чтобы гарантировать, что она принесет человечеству больше пользы в лонг, чем риски.
Посмотреть Оригинал
На этой странице может содержаться сторонний контент, который предоставляется исключительно в информационных целях (не в качестве заявлений/гарантий) и не должен рассматриваться как поддержка взглядов компании Gate или как финансовый или профессиональный совет. Подробности смотрите в разделе «Отказ от ответственности» .
Точность и надежность поисковых рекомендаций Google на основе искусственного интеллекта остаются смертельно опасной проблемой
Google усердно работает над тем, чтобы исключить ложные и потенциально опасные ответы из результатов поиска ИИ. Тем не менее, новая функция «Обзор ИИ» иногда выдает шутки и сарказм в социальных сетях и на сатирических сайтах за факты.
Недавно опубликованные результаты поиска Google с искусственным интеллектом привлекли много внимания, но причины не такие положительные, как ожидалось. В рамках своей недавно запущенной стратегии «Twin Times» технологический гигант объявил о множестве новых инструментов искусственного интеллекта на прошлой неделе. За этим последовало существенное изменение в фирменном сервисе веб-поиска, где ответы на вопросы в результатах поиска теперь отображаются на естественном языке непосредственно поверх ссылок на веб-сайты.
В то время как обновление Google делает поисковую технологию более продвинутой и способной отвечать на более сложные вопросы пользователей, оно также вызывает некоторые опасения. Например, ИИ иногда может предоставлять пользователям неверную или вводящую в заблуждение информацию при обработке результатов поиска, что особенно проблематично, когда речь идет о деликатных темах, таких как евгеника.
Евгеника была ошибочно использована для некоторых бесчеловечных политик истории, поэтому точность и чувствительность ее информации особенно важны. Кроме того, у ИИ также есть проблема недостаточной точности при идентификации некоторых специфических вещей, таких как различение ядовитых и неядовитых грибов.
Это напоминает нам о необходимости быть особенно осторожными при использовании инструментов поиска ИИ для запросов, связанных со здоровьем и безопасностью, и по возможности обращаться за профессиональным подтверждением.
Искусственный интеллект Google, предоставляя ответы на вопросы «обзора ИИ», иногда ссылается на контент из социальных сетей, таких как Reddit, который, возможно, изначально предназначался для юмористических или саркастических целей. Это привело к тому, что пользователям предлагались явно ошибочные или нелепые ответы.
Например, один пользователь сообщил, что на вопрос о том, как бороться с депрессией, искусственный интеллект Google на самом деле предложил «спрыгнуть с моста Золотые Ворота». Другие ответы абсурдно подтверждают антигравитационную способность, согласно которой люди могут оставаться в шортах до тех пор, лонг не смотреть вниз.
Эти примеры показывают, что, несмотря на то, что ИИ добился прогресса в предоставлении результатов поиска, все еще существуют недостатки в точности и надежности, которые нуждаются в дальнейшем улучшении.
Партнерство Google с Reddit призвано облегчить пользователям поиск и участие в интересующих их сообществах и обсуждениях. Однако сотрудничество также сопряжено с некоторыми рисками, особенно когда ИИ обрабатывает контент с Reddit. Поскольку ИИ может не иметь возможности распознать подлинность или контекст информации, он может принять и процитировать информацию на Reddit без дискриминации.
Такое неразборчивое восприятие информации может привести к появлению вводящих в заблуждение или даже нелепых предложений в результатах поиска. Например, ИИ однажды дал неуместное предложение о том, что дети должны съедать хотя бы один маленький камень в день, а также неверно пометил это предложение как исходящее от геолога из Калифорнийского университета в Беркли. Этот пример иллюстрирует, как ИИ может вводить в заблуждение, игнорируя достоверность и пригодность информации при обработке информации в Интернете.
В то время как Google удалил или исправил некоторые явно нелепые ответы, модели, созданные искусственным интеллектом, иногда выдают неточные или фиктивные ответы, явление, известное как «галлюцинации». Эти «галлюцинации» можно считать неправдивыми утверждениями, потому что ИИ создает нечто, что не соответствует действительности.
Это говорит о том, что ИИ необходимо совершенствовать распознавание подлинности и контекста информации, а также его необходимо дополнительно оптимизировать, чтобы обеспечить точность и надежность предоставляемой информации.
В то же время искусственный интеллект Google ошибочно рекомендовал использовать клей, чтобы сыр не соскальзывал с пиццы, предложение, которое исходит из комментария десятилетней давности на Reddit.
Модель ChatGPT от OpenAI была сфабрикована, включая ложное обвинение профессора права Джонатана Терли в сексуальном насилии на основании поездки, в которой он не участвовал. Этот инцидент отражает тот факт, что ИИ может быть слишком самоуверенным в обработке информации и не в состоянии точно отличить подлинность контента от ложности контента в Интернете.
Кроме того, чрезмерная самоуверенность ИИ может привести к тому, что он будет без разбора принимать всю информацию в Интернете за истину, и это доверие может привести к ошибочным суждениям, таким как ошибочное возложение вины на бывших руководителей Google и ошибочное вынесение обвинительных вердиктов против компаний в контексте антимонопольного законодательства.
Когда пользователи ищут в Google вопросы, связанные с поп-культурой, функция поиска ИИ иногда может привести к некоторым юмористическим или запутанным результатам. Это может быть связано с тем, что ИИ может столкнуться с проблемами в понимании контента поп-культуры, особенно если он содержит юмор, сатиру или определенный социальный контекст. Искусственному интеллекту может быть трудно точно понять истинное намерение этого контента, что приводит к предложениям или ответам, которые могут не соответствовать ожиданиям пользователя, вызывая некоторые неожиданные реакции.
、![]()
Кроме того, несмотря на то, что ИИ обновил свои рекомендации в отношении проглатывания детьми камней, отметив, что возможные причины включают любопытство, проблемы с обработкой сенсорной информации или расстройства пищевого поведения, эти ответы по-прежнему требуют профессиональной оценки и не должны использоваться в качестве окончательного руководства. Это подчеркивает необходимость проявлять особую осторожность и обращаться за профессиональной консультацией при использовании информации, предоставляемой ИИ, особенно когда речь идет о здоровье и безопасности.
Заключение:
Несмотря на то, что функция поисковых подсказок Google AI добилась значительных технологических успехов, ее недостаточная точность и надежность все еще могут привести к серьезным последствиям. От беспорядочного принятия информации на платформах социальных сетей, таких как Reddit, до вводящей в заблуждение информации по чувствительным темам, таким как евгеника, до неправомерной самокриминализации в правовом поле, эти инциденты выявили значительные недостатки в проверке и оценке информации ИИ.
Кроме того, проблема моделей ИИ, фабрикующих факты или создающих «галлюцинации», также показывает их ограниченность при решении сложных задач. Поэтому мы должны проявлять бдительность в отношении информации, предоставляемой ИИ, обращаться за профессиональной консультацией и призывать разработчиков и исследователей постоянно совершенствовать технологию ИИ, чтобы гарантировать, что она принесет человечеству больше пользы в лонг, чем риски.