Мне показался очень интересным этот отчет, который недавно вышел о том, что на самом деле происходило внутри openai. В основном, журналисты-расследователи провели месяцы, беря интервью у более чем 100 человек, причастных к делу, получили внутренние меморандумы, никогда не публиковавшиеся, и обнаружили довольно тревожные вещи: 70-страничные документы главного ученого Ильи Сутскевера, в которых делается вывод, что Сэм Альтман демонстрировал устойчивый паттерн лжи. Это не мало.



Меня особенно поразило, как openai начала как некоммерческая организация в 2015 году с ясной обещанием ставить безопасность превыше всего. Идея заключалась в том, что если ИИ станет опасным, совет сможет иметь полномочия закрыть компанию. Но тут возникает главный вопрос: всё зависело от очень честного человека, контролирующего технологию. А что если ставка была ошибочной?

Детали вызывают тревогу. В декабре 2022 года, во время заседания совета, Сэм заявил, что функции GPT-4 уже прошли проверку безопасности. Когда попросили показать документы, выяснилось, что две из самых спорных функций так и не были одобрены советом по безопасности. Есть также заметки Дарьо Амодеи, основателя Anthropic, работавшего в области безопасности в openai, описывающие, как компания шаг за шагом отступала под давлением коммерческих интересов.

И есть еще. openai публично объявила, что выделит 20% вычислительных мощностей для команды супервыравнивания, с потенциальной стоимостью выше 1 миллиарда долларов. Но на практике? Четыре человека, работавшие там, подтвердили, что было использовано всего 1-2% от общей мощности, и оборудование было более старым. Команда была распущена, не завершив свою миссию.

Меня действительно поразило описание бывшего члена совета о Сэме. У него есть очень редкий набор качеств: в личных беседах он демонстрирует сильное желание угодить. В то же время он показывает почти социопатскую безразличность к последствиям обмана людей. Представители Microsoft даже сравнивали это с Берни Мэдоффом или SBF. Тяжело.

Теперь есть вопрос к финансовому директору Сара Фриар, которая не согласна ускорять IPO в этом году, аргументируя, что финансовые риски слишком высоки, $1 Сэм обещал расходы на вычислительные ресурсы на сумму более миллиарда долларов за пять лет(. Но потом она перестала напрямую отчитываться перед Сэмом, теперь она подчиняется другому руководителю, который взял отпуск по болезни. Компания находится в процессе IPO, при этом существуют фундаментальные разногласия между CEO и CFO. Абсурд.

Точка зрения, которую высказал Гэри Маркус, имеет смысл: если будущая модель openai сможет создавать биологическое оружие или запускать кибератаки, действительно ли вы хотите оставить решение о разрешении за человеком с таким же уровнем честности? Официальный ответ openai был расплывчатым, они спрашивали о мотивах источников, вместо того чтобы опровергать конкретные факты.

Это похоже на ту фразу, которую я видел: некоммерческая организация, созданная для защиты человечества, превратилась в коммерческую машину, где практически все меры безопасности лично устранялись одним и тем же человеком. Десять лет так можно резюмировать так: идеализм → технологический прогресс → массовый капитал → уступка миссии → разрушение безопасности → превращение структуры в прибыльную организацию.

Все это происходит в то время, как Сэм готовит openai к IPO с оценкой выше 10 миллиардов долларов. Более сотни свидетелей описали его одним словом: не ограничен правдой. Эта история гораздо больше, чем корпоративный слух. Когда речь идет о технологии, которая потенциально самая мощная в истории человечества, честность CEO — не мелочь, а экзистенциальный риск для всех.
Посмотреть Оригинал
На этой странице может содержаться сторонний контент, который предоставляется исключительно в информационных целях (не в качестве заявлений/гарантий) и не должен рассматриваться как поддержка взглядов компании Gate или как финансовый или профессиональный совет. Подробности смотрите в разделе «Отказ от ответственности» .
  • Награда
  • комментарий
  • Репост
  • Поделиться
комментарий
Добавить комментарий
Добавить комментарий
Нет комментариев
  • Закрепить