Фьючерсы
Доступ к сотням фьючерсов
TradFi
Золото
Одна платформа мировых активов
Опционы
Hot
Торги опционами Vanilla в европейском стиле
Единый счет
Увеличьте эффективность вашего капитала
Демо-торговля
Введение в торговлю фьючерсами
Подготовьтесь к торговле фьючерсами
Фьючерсные события
Получайте награды в событиях
Демо-торговля
Используйте виртуальные средства для торговли без риска
Запуск
CandyDrop
Собирайте конфеты, чтобы заработать аирдропы
Launchpool
Быстрый стейкинг, заработайте потенциальные новые токены
HODLer Airdrop
Удерживайте GT и получайте огромные аирдропы бесплатно
Pre-IPOs
Откройте полный доступ к глобальным IPO акций
Alpha Points
Торгуйте и получайте аирдропы
Фьючерсные баллы
Зарабатывайте баллы и получайте награды аирдропа
Инвестиции
Simple Earn
Зарабатывайте проценты с помощью неиспользуемых токенов
Автоинвест.
Автоинвестиции на регулярной основе.
Бивалютные инвестиции
Доход от волатильности рынка
Мягкий стейкинг
Получайте вознаграждения с помощью гибкого стейкинга
Криптозаймы
0 Fees
Заложите одну криптовалюту, чтобы занять другую
Центр кредитования
Единый центр кредитования
Рекламные акции
AI
Gate AI
Ваш универсальный AI-ассистент для любых задач
Gate AI Bot
Используйте Gate AI прямо в вашем социальном приложении
GateClaw
Gate Синий Лобстер — готов к использованию
Gate for AI Agent
AI-инфраструктура: Gate MCP, Skills и CLI
Gate Skills Hub
Более 10 тыс навыков
От офиса до трейдинга: единая база навыков для эффективного использования ИИ
GateRouter
Умный выбор из более чем 30 моделей ИИ, без дополнительных затрат (0%)
Интересный поворот в истории с AI и военными контрактами. Оказывается, когда дело доходит до больших денег, даже компании, декларирующие высокие этические стандарты, начинают пересматривать свои позиции.
Всё началось с того, что Anthropic, создатели Claude, отказались идти на поводу у Пентагона. Военное ведомство требовало убрать все ограничения на использование ИИ для массового наблюдения и автономного оружия. Anthropic выбрала путь принципиальности и отказала, хотя речь шла о контракте на 200 миллионов долларов. Серьёзный риск для любой компании, но они поставили вопрос этики выше финансовой выгоды.
В ответ Пентагон не стал церемониться. Anthropic получила официальный статус угрозы для безопасности цепочки поставок, что практически закрыло им доступ к военным проектам. Казалось, это конец истории.
Но вот здесь начинается самое интересное. OpenAI, которая изначально выглядела как единомышленник Anthropic в вопросах этики, неожиданно подписала с Пентагоном контракт на похожих условиях. Только вот гарантий насчёт ограничений OpenAI не дала. По сути, они заняли место, которое оставила Anthropic, но без той принципиальности.
Это хороший пример того, как работает реальный бизнес. Красивые речи об этике звучат хорошо, пока не появляется серьёзное предложение. Когда же деньги на столе, приоритеты могут измениться. OpenAI показала, что для неё этика в отношениях с государством оказалась менее важна, чем контрактные возможности.
Ситуация отражает растущее напряжение в AI-индустрии. С одной стороны, компании говорят о ответственном развитии технологий и этических рамках. С другой стороны, государственные структуры давят на расширение возможностей, а конкуренция между компаниями подталкивает их идти на компромиссы с собственными принципами. Вопрос этики становится всё более сложным, когда речь идёт о военном применении ИИ и масштабных государственных контрактах.