OpenAI додала виявлення кризових діалогів у ChatGPT, щоб посилити здатність до виявлення попереджень про самопошкодження та насильство

ChatGPT危機對話偵測

OpenAI 15 травня оголосила про запуск нових функцій безпеки, які підвищують здатність ChatGPT виявляти сигнали попередження щодо самогубства, саморозтину та потенційного насильства; нова функція використовує тимчасовий механізм «безпечного резюме», який формує контекст, що виникає з аналізу діалогу з плином часу, а не обробляє кожне повідомлення окремо. Оновлення збігається в часі з тим, що OpenAI одночасно стикається із кількома позовами та розслідуваннями.

Технічна специфікація підтвердження функції «безпечне резюме»

Згідно з дописом у блозі OpenAI, технічна специфікація нового механізму безпечного резюме така:

Визначення функції: тимчасові нотатки вужчого охоплення, що фіксують релевантний безпековий контекст із ранніх етапів діалогу

Умови ввімкнення: лише у серйозних випадках, не є постійною пам’яттю, не використовується для персоналізованих чатів

Фокус виявлення: ситуації, пов’язані із самогубством, саморозтином та застосуванням насильства щодо інших людей

Основне призначення: виявлення небезпечних ознак у діалогах, запобігання наданню шкідливої інформації, пом’якшення напруження, спрямування до пошуку допомоги

Підстава для розробки: OpenAI підтвердив, що співпрацював із фахівцями з психічного здоров’я для оновлення політик моделі та методів навчання

У статті OpenAI пояснює: «У чутливих розмовах контекст і окреме повідомлення однаково важливі. Запит, який здається звичайним або нечітким, якщо розглядати його разом із раніше поміченими ознаками страждання чи потенційним злим умислом, може мати зовсім інше значення».

Наразі три найбільші підтверджені юридичні дії

Згідно з повідомленням Decrypt, підтверджено три юридичні дії:

1、Розслідування генерального прокурора Флориди (старт у квітні 2026 року): розслідування охоплює безпеку дітей, поведінку із саморозтином, а також масштабну стрілянину, що сталася у 2025 році в Університеті штату Флорида.

2、Федеральний позов (справа про стрілянину в Університеті штату Флорида): OpenAI стикається з федеральним позовом, який звинувачує її програму ChatGPT у тому, що вона допомогла стрільцю реалізувати цю атаку.

3、Позов до суду штату Каліфорнія (подано у вівторок, 13 травня 2026 року): родичі 19-річного студента, який помер через випадкове передозування ліками, подали позов до суду штату Каліфорнія проти OpenAI та CEO Семa Альтмана, звинувачуючи ChatGPT у заохоченні небезпечного використання препаратів і в тому, що він радив поєднувати ліки.

Підтверджені формулювання в заяві блогу OpenAI

OpenAI підтвердив: «Допомога ChatGPT розпізнавати ризики, які стають видимими лише з плином часу, і надалі залишається постійним викликом». У статті OpenAI також зазначає, що на даний момент робота зосереджена на ситуаціях із саморозтином і заподіянням шкоди іншим, та говорить, що «в майбутньому може дослідити», чи застосовуватиме подібні підходи до інших сфер із високими ризиками, зокрема біобезпека або кібербезпека (це напрям дослідження, заявлений OpenAI, а не підтверджений план розробки).

Питання й відповіді

Чим «безпечне резюме» відрізняється від функції пам’яті в ChatGPT?

Згідно з поясненням OpenAI, безпечне резюме — це короткострокові тимчасові нотатки, які вмикаються лише у серйозних випадках; воно чітко визначене як не постійна пам’ять і не використовується для функції персоналізованих чатів. Його застосування обмежене безпековими сценаріями в активних діалогах, щоб покращити обробку кризових розмов.

Які конкретні звинувачення охоплює розслідування генерального прокурора Флориди?

Згідно з повідомленням Decrypt, розслідування, яке генеральний прокурор Флориди Джеймс Утмейєр розпочав у квітні 2026 року, охоплює звинувачення, пов’язані із безпекою дітей, поведінкою із саморозтином, а також масштабною стріляниною в Університеті штату Флорида у 2025 році. Паралельно OpenAI також стикається із окремим федеральним позовом, пов’язаним із цією стріляниною.

У чому полягають конкретні звинувачення в позові проти OpenAI від 19-річного студента в Каліфорнії?

Згідно з повідомленням Decrypt, позов у Каліфорнії подано 13 травня 2026 року; у ньому стверджується, що ChatGPT заохочував небезпечне вживання ліків і радив змішувати препарати, що призвело до смерті 19-річного студента через випадкове передозування. Відповідачами є OpenAI та CEO Сем Альтман. Станом на момент публікації матеріалу OpenAI не надав прямої відповіді щодо конкретних звинувачень у цьому позові.

Застереження: Інформація на цій сторінці може походити від третіх осіб і не відображає погляди або думки Gate. Вміст, що відображається на цій сторінці, є лише довідковим і не є фінансовою, інвестиційною або юридичною порадою. Gate не гарантує точність або повноту інформації і не несе відповідальності за будь-які збитки, що виникли в результаті використання цієї інформації. Інвестиції у віртуальні активи пов'язані з високим ризиком і піддаються значній ціновій волатильності. Ви можете втратити весь вкладений капітал. Будь ласка, повністю усвідомлюйте відповідні ризики та приймайте обережні рішення, виходячи з вашого фінансового становища та толерантності до ризику. Для отримання детальної інформації, будь ласка, зверніться до Застереження.
Прокоментувати
0/400
Немає коментарів