Джерело: Criptonoticias
Оригінальна назва: Витяг із Bitcoin-майнера викриває шахрайство, яке маніпулює ChatGPT і Google
Оригінальне посилання:
Відкриття
Aurascape, компанія з кібербезпеки та штучного інтелекту, створена Auradine, але незалежно діє в екосистемі Aura Labs, розкрила нову модель шахрайства в інтернеті.
Згадані шахрайства у прес-релізі від 8 грудня впливають на платформи штучного інтелекту, такі як ChatGPT, Google, Perplexity та інших помічників на основі великих моделей генеративної мови.
За даними дослідження, ця модель шахрайства базується на систематичній маніпуляції контентом у мережі для перенаправлення користувачів на фальшиві телефонні номери служби підтримки авіаліній.
Як працює атака
Дослідники пояснюють, що зловмисники не намагаються змінити внутрішню роботу помічників ШІ (програм, що відповідають на запитання за допомогою передових моделей).
Замість цього, вони втручаються у середовище, з якого ці системи отримують інформацію. Маніпулюють легітимними веб-сторінками, щоб, шукаючи дані для зв’язку з авіалініями, асистенти почали показувати фальшиві телефони, що ведуть до шахрайських центрів, орієнтованих на отримання платежів або конфіденційних даних.
На практиці, атака спрямована не безпосередньо на модель ШІ, а на матеріал, який вона запитує. Тому, більше ніж обман користувача безпосередньо, зловмисники навчаються впливати на системи, що синтезують відповіді, що розширює масштаби шахрайства.
Механізм: “Отруєння номерів телефонів LLM”
Згідно з Aurascape, шахраї здійснюють процес, який дослідники описують як отруєння телефонних номерів для моделей мовлення.
Цей механізм полягає у зміні легітимного контенту в інтернеті, щоб помічники ШІ читали його і рекомендували фальшиві номери, ніби вони офіційні.
Дослідники пояснюють, що зловмисники атакують сам веб-сайт. Для цього вставляють фальшивий контент у сайти державних організацій, університетів, блоги на WordPress, описи на YouTube і відгуки на платформах, таких як Yelp.
Крім того, хакери використовують інші відомі техніки, такі як Generative Engine Optimization та Answer Engine Optimization, щоб впливати на те, як системи обирають і синтезують доступну інформацію.
За допомогою цих двох технік вони займають місце, яке помічники ШІ вважають “правильною відповіддю”.
Приклади шахрайства в дії
У внутрішній демонстрації Aurascape показала, що при запиті “офіційний номер бронювання Emirates Airlines” перплексітінадійно повернув фальшивий номер:
Подібний запит щодо British Airways дав той самий телефон, представлений як “загальновживана лінія”.
Навіть, як видно на наступному зображенні, функція Google AI Overview представила кілька фальшивих номерів, ніби вони офіційні, з покроковою інструкцією з бронювання рейсів:
Перетин між майнінгом Bitcoin та ШІ
Auradine — американська компанія, що займається створенням обладнання для майнінгу Bitcoin. Інші майнери, такі як MARA і Genesis Digital Assets, вже придбали свої ASIC-устройства.
Однак дослідження Aurascape також ілюструє окремий феномен, який зростає з кожним днем: перетин між компаніями, що займаються майнінгом Bitcoin, і галуззю ШІ.
Майнери розширюють свої напрямки діяльності у сфери, пов’язані з штучним інтелектом. Ці компанії, звиклі керувати великими інфраструктурами обладнання та дата-центрами, намагаються зменшити вплив волатильності ринку майнінгу, диверсифікуючи свої послуги.
Аналіз безпеки, проведений Auradine, є прикладом того, як розвивається ця перетин і як майнери використовують свій технічний досвід для входження у сфери, де попит на обчислювальні ресурси, аналіз та кібербезпеку зростає стабільно.
Ця сторінка може містити контент третіх осіб, який надається виключно в інформаційних цілях (не в якості запевнень/гарантій) і не повинен розглядатися як схвалення його поглядів компанією Gate, а також як фінансова або професійна консультація. Див. Застереження для отримання детальної інформації.
Біткойн-майнер розкриває шахрайство, яке маніпулює ChatGPT і Google для авіакомпанійських шахрайств
Джерело: Criptonoticias Оригінальна назва: Витяг із Bitcoin-майнера викриває шахрайство, яке маніпулює ChatGPT і Google Оригінальне посилання:
Відкриття
Aurascape, компанія з кібербезпеки та штучного інтелекту, створена Auradine, але незалежно діє в екосистемі Aura Labs, розкрила нову модель шахрайства в інтернеті.
Згадані шахрайства у прес-релізі від 8 грудня впливають на платформи штучного інтелекту, такі як ChatGPT, Google, Perplexity та інших помічників на основі великих моделей генеративної мови.
За даними дослідження, ця модель шахрайства базується на систематичній маніпуляції контентом у мережі для перенаправлення користувачів на фальшиві телефонні номери служби підтримки авіаліній.
Як працює атака
Дослідники пояснюють, що зловмисники не намагаються змінити внутрішню роботу помічників ШІ (програм, що відповідають на запитання за допомогою передових моделей).
Замість цього, вони втручаються у середовище, з якого ці системи отримують інформацію. Маніпулюють легітимними веб-сторінками, щоб, шукаючи дані для зв’язку з авіалініями, асистенти почали показувати фальшиві телефони, що ведуть до шахрайських центрів, орієнтованих на отримання платежів або конфіденційних даних.
На практиці, атака спрямована не безпосередньо на модель ШІ, а на матеріал, який вона запитує. Тому, більше ніж обман користувача безпосередньо, зловмисники навчаються впливати на системи, що синтезують відповіді, що розширює масштаби шахрайства.
Механізм: “Отруєння номерів телефонів LLM”
Згідно з Aurascape, шахраї здійснюють процес, який дослідники описують як отруєння телефонних номерів для моделей мовлення.
Цей механізм полягає у зміні легітимного контенту в інтернеті, щоб помічники ШІ читали його і рекомендували фальшиві номери, ніби вони офіційні.
Дослідники пояснюють, що зловмисники атакують сам веб-сайт. Для цього вставляють фальшивий контент у сайти державних організацій, університетів, блоги на WordPress, описи на YouTube і відгуки на платформах, таких як Yelp.
Крім того, хакери використовують інші відомі техніки, такі як Generative Engine Optimization та Answer Engine Optimization, щоб впливати на те, як системи обирають і синтезують доступну інформацію.
За допомогою цих двох технік вони займають місце, яке помічники ШІ вважають “правильною відповіддю”.
Приклади шахрайства в дії
У внутрішній демонстрації Aurascape показала, що при запиті “офіційний номер бронювання Emirates Airlines” перплексіті надійно повернув фальшивий номер:
Подібний запит щодо British Airways дав той самий телефон, представлений як “загальновживана лінія”.
Навіть, як видно на наступному зображенні, функція Google AI Overview представила кілька фальшивих номерів, ніби вони офіційні, з покроковою інструкцією з бронювання рейсів:
Перетин між майнінгом Bitcoin та ШІ
Auradine — американська компанія, що займається створенням обладнання для майнінгу Bitcoin. Інші майнери, такі як MARA і Genesis Digital Assets, вже придбали свої ASIC-устройства.
Однак дослідження Aurascape також ілюструє окремий феномен, який зростає з кожним днем: перетин між компаніями, що займаються майнінгом Bitcoin, і галуззю ШІ.
Майнери розширюють свої напрямки діяльності у сфери, пов’язані з штучним інтелектом. Ці компанії, звиклі керувати великими інфраструктурами обладнання та дата-центрами, намагаються зменшити вплив волатильності ринку майнінгу, диверсифікуючи свої послуги.
Аналіз безпеки, проведений Auradine, є прикладом того, як розвивається ця перетин і як майнери використовують свій технічний досвід для входження у сфери, де попит на обчислювальні ресурси, аналіз та кібербезпеку зростає стабільно.