Кратко
- Полиция Сан-Франциско арестовала подозреваемого после того, как зажигательное устройство было брошено в дом генерального директора OpenAI Сэма Альтмана.
- Позже офицеры задержали того же человека возле штаб-квартиры OpenAI после того, как, как утверждается, он пригрозил сжечь здание.
- Никто не пострадал, и полиция заявляет, что расследование продолжается.
Полиция Сан-Франциско арестовала подозреваемого в начале пятницы после того, как коктейль Молотова был брошен в дом генерального директора OpenAI Сэма Альтмана.
Согласно сообщению NBC News, полиция выехала к дому Альтмана в районе Норт-Бич в Сан-Франциско около 4:12 утра по тихоокеанскому времени после получения сообщения о пожаре. Следователи сообщили, что неизвестный мужчина бросил зажигательное устройство, в результате чего загорелись внешние ворота, после чего скрылся с места происшествия.
Полиция охарактеризовала устройство как коктейль Молотова или аналогичное зажигательное устройство. Позже офицеры задержали подозреваемого возле штаб-квартиры OpenAI после того, как, как утверждается, он пригрозил сжечь здание.
Когда офицеры прибыли, они узнали в нем того же подозреваемого, что и в более раннем инциденте, и задержали его. Согласно сообщениям, полиция не назвала подозреваемого, но описала его как 20-летнего мужчину. Власти сообщили, что обвинения все еще находятся в стадии рассмотрения, а дело остается активным расследованием.
«Ранним этим утром кто-то бросил коктейль Молотова в дом Сэма Альтмана и также оставлял угрозы в адрес нашей штаб-квартиры в Сан-Франциско», — сказал представитель OpenAI Decrypt. «К счастью, никто не пострадал. Мы очень ценим то, как быстро SFPD отреагировала, и поддержку со стороны города в том, что это помогает нам обеспечивать безопасность наших сотрудников».
OpenAI, добавили они, помогает правоохранительным органам в рамках их расследования.
Атака происходит на фоне роста угроз, связанных с разработкой искусственного интеллекта, включая недавний случай в Индиане, где были произведены выстрелы в дом члена городского совета, который поддерживал строительство дата-центра, а на месте была оставлена записка: «Никаких дата-центров».
В пятничном блоге днем Альтман прокомментировал атаку: он опубликовал фотографию своей семьи и добавил, что надеется, «это может удержать следующего человека от того, чтобы бросить коктейль Молотова в наш дом», независимо от того, что этот человек о нем думает.
«Первый человек сделал это прошлой ночью, в 3:45 утра. К счастью, он отскочил от дома, и никто не пострадал», — написал Альтман.
В своем посте Альтман также намекнул на недавнюю расследовательскую статью в The New Yorker о генеральном директоре OpenAI, которую он назвал подстрекательской.
«Кто-то сказал мне вчера, что они считали, что это происходит на фоне сильной тревоги из-за ИИ, и что из-за этого для меня все стало более опасным», — сказал он. «Я отмахнулся от этого».
Инцидент последовал за другой тревогой безопасности, о которой в ноябре сообщала Wired: тогда OpenAI заблокировала свои офисы в Сан-Франциско после получения жестокой угрозы, связанной с антииИ-активистом, который ранее уже посещал компанию, и, как предполагалось, планировал причинить вред сотрудникам.
Примечание редакции: Эта статья была обновлена после публикации, чтобы включить комментарии Сэма Альтмана, сделанные в блоге.
Отказ от ответственности: Информация на этой странице может поступать от третьих лиц и не отражает взгляды или мнения Gate. Содержание, представленное на этой странице, предназначено исключительно для справки и не является финансовой, инвестиционной или юридической консультацией. Gate не гарантирует точность или полноту информации и не несет ответственности за любые убытки, возникшие от использования этой информации. Инвестиции в виртуальные активы несут высокие риски и подвержены значительной ценовой волатильности. Вы можете потерять весь инвестированный капитал. Пожалуйста, полностью понимайте соответствующие риски и принимайте разумные решения, исходя из собственного финансового положения и толерантности к риску. Для получения подробностей, пожалуйста, обратитесь к
Отказу от ответственности.
Связанные статьи
OpenAI увеличивает $4 миллиардов для развертывания совместного предприятия, оцениваемого в 10 миллиардов долларов
Согласно BlockBeats, 4 мая OpenAI привлекла более $4 миллиарда для создания нового совместного предприятия, ориентированного на помощь компаниям в адаптации его программного обеспечения с искусственным интеллектом. Предприятие, получившее название The Deployment Company, поддерживают 19 инвесторов, включая TPG Inc., Brookfield Asset Management,
GateNews43м назад
Почему одни считают, что ИИ меняет мир, а другие — что это просто очередное явление? Два диагноза от Карапати
Кархарті указал, что разрыв в восприятии ИИ связан с двумя диагнозами: 1) пользователи знакомились только с бесплатными/старыми версиями моделей и не могут отражать реальную силу самых передовых агентных моделей; 2) улучшения способностей заметны в основном в высокотехнологичных областях и при этом проявляются асимметрично. Из-за этого платящие пользователи и обычные читатели видят разные явления, что приводит к параллельным мирам и взаимным заблуждениям. Вывод для читателей на Тайване: реальное использование самых передовых моделей для выполнения производственных задач и проверка оснований выводов — единственный способ избежать того, чтобы медиамифы сбивали с пути.
ChainNewsAbmedia44м назад
Applied Digital привлекла мостовое финансирование на 300 миллионов долларов под проекты для центров обработки данных ИИ во главе с Goldman Sachs
По данным Globenewswire, Applied Digital 4 мая привлекла $300 млн в виде старшего обеспеченного мостового финансирования, организованного Goldman Sachs, чтобы ускорить развитие своих AI-центров обработки данных. Финансирование обеспечено проектными активами, может быть погашено досрочно без штрафов, и компания планирует продолжить
GateNews45м назад
Кархэпти «пусть LLM возражает сама себе»: 4 шага для противодействия мыслительным искажениям с помощью ИИ
В этой статье собраны четыре шага из методики Андрея Карпати «Пусть LLM опровергает собственные тезисы»: сначала используйте LLM, чтобы отшлифовать черновик; затем начните новый диалог — пусть она предложит контраргументы и приведёт доказательства; после этого оформите всё в виде цельной статьи с опровержением; в конце сопоставьте обе стороны и проверяемые доказательства — решение принимает человек. Напоминание: у LLM есть склонность к сикофании, не принимайте согласие за истину — рассматривайте её как генератор аргументов, а не как арбитра при вынесении вердикта; также можно устроить взаимные дебаты между двумя LLM, чтобы снизить предвзятость. Этот метод особенно ценен для создания контента в 2026 году: он повышает глубину осмысления и снижает однородность.
ChainNewsAbmedia50м назад
Сэм Альтман и Дарио Амодей слишком раздражают! Апокалиптические прогнозы об ИИ и чувство относительной обделённости заставляют американцев испытывать неприязнь к ИИ
В известном подкасте Силиконовой долины《All-In Podcast》при обсуждении индустрии ИИ прозвучало довольно резкое наблюдение: отношение американского общества к ИИ переходит в негативную сторону, и эта волна эмоций находит самое конкретное выражение в том, что в качестве главной мишени выступают дата-центры, которые ИИ-компании сейчас в срочном порядке строят по всей территории США. Источником такого неприятия могут быть как ИИ-апокалиптические настроения, страх безработицы, так и более глубокое недовольство: новая волна технологических инноваций, похоже, снова приведёт к обогащению лишь немногих, тогда как жизнь большинства людей не станет заметно лучше.
В США местные органы власти уже отменяют решения о строительстве дата-центров
Chamath Palihapitiya в эфире заявил, что проблемы, с которыми сейчас сталкивается ИИ-индустрия, связаны не только с конкуренцией моделей, капитальными затратами или нехваткой вычислительных мощностей, а с тем, что «американцы в целом всё больше и больше испытывают отвращение к этой теме — ИИ». Он отметил, что источником такого отвращения могут быть, в том числе, ИИ
ChainNewsAbmedia2ч назад
Вопросы сообщества об идеологической предвзятости в основных моделях ИИ 4 мая
По данным BlockBeats, 4 мая пользователь X Freeze из сообщества, посвящённого ИИ, задал вопрос, демонстрируют ли мейнстримные ИИ-модели, включая ChatGPT, Claude и Gemini, систематическую предвзятость, будучи менее согласованными с консервативными позициями по таким темам, как пол, иммиграция и преступность. Пользователь предположил, что как ИИ
GateNews4ч назад