Der CEO von OpenAI, Sam Altman, hat den Rivalen Anthropic beschuldigt, mit „angstbasiertem Marketing“ für sein Claude-Mythos-KI-Modell zu werben, so geht aus Kommentaren hervor, die im Podcast Core Memory vom Technikjournalisten Ashlee Vance abgegeben wurden. Altman argumentierte, dass die angstbasierte Rhetorik darauf ausgelegt sei, zu rechtfertigen, fortschrittliche KI-Systeme unter der Kontrolle von „einer kleineren Gruppe von Menschen“ zu halten, auch wenn er einräumte, dass einige Sicherheitsbedenken berechtigt seien.
Altman erklärte, dass es zwar berechtigte Bedenken bezüglich der KI-Sicherheit gebe, „aber es ist ganz offensichtlich unglaubliches Marketing zu sagen: ‚Wir haben eine Bombe gebaut. Wir sind dabei, sie auf deinen Kopf fallen zu lassen. Wir verkaufen dir einen Bombenschutz für $100 million. Du brauchst ihn, um über all deine Sachen hinweg zu laufen, aber nur, wenn wir dich als Kunden auswählen.'“ Er stellte fest, dass es „nicht immer einfach“ sei, die neuen Fähigkeiten der KI mit der Überzeugung in Einklang zu bringen, dass die Technologie zugänglich sein sollte.
Altman räumte ein, dass „es legitime Sicherheitsbedenken geben wird“, schlug aber vor, dass angstbasierte Botschaften zur Rechtfertigung zentralisierter Kontrolle missbraucht werden könnten. Er sagte: „wenn das, was du willst, so ist wie ‚wir brauchen die Kontrolle über KI, nur wir, weil wir die vertrauenswürdigen Leute sind‘, dann ist meiner Meinung nach angstbasiertes Marketing wahrscheinlich der effektivste Weg, um das zu rechtfertigen.“
Das Anthropic-Modell Claude Mythos wurde im vergangenen Monat vorgestellt und hat bei Forschern, Regierungen und der Cybersecurity-Branche erheblich Aufmerksamkeit auf sich gezogen. Laut Tests kann das Modell autonom Software-Schwachstellen identifizieren und komplexe Cyber-Operationen ausführen. Während der Tests identifizierte Mythos Hunderte von Schwachstellen im Mozilla-Firefox-Browser und hat die Fähigkeit demonstriert, Multi-Stage-Cyberangriffs-Simulationen durchzuführen.
Anthropic hat den Zugriff auf das System über Project Glasswing eingeschränkt, ein begrenztes Programm, das ausgewählten Unternehmen – darunter Amazon, Apple und Microsoft – die Fähigkeit gibt, seine Möglichkeiten zu testen. Das Unternehmen hat außerdem erhebliche Ressourcen zugesagt, um Open-Source-Sicherheitsbemühungen zu unterstützen, und argumentiert, dass Verteidiger von der Technologie profitieren sollten, bevor sie allgemein verfügbarer wird.
Anthropic hat Mythos’ Fähigkeiten als sowohl Durchbruch zur Verteidigung gerahmt – der schnellere Erkennung kritischer Softwarefehler ermöglicht – als auch als potenzielles offensives Risiko, falls es missbraucht wird. Das Modell hat außerdem Grenzen in bestehenden KI-Bewertungssystemen offengelegt, wobei Anthropic zugab, dass viele aktuelle Cybersecurity-Benchmarks nicht mehr ausreichen, um die Fähigkeiten seines neuesten Systems zu messen.
Trotz Aufforderungen in Teilen der US-Regierung, die Nutzung der Technologie zu stoppen, wegen Bedenken hinsichtlich ihrer möglichen Anwendungen in Kriegsführung und Überwachung, habe die National Security Agency Berichten zufolge damit begonnen, eine Vorschau-Version des Modells in klassifizierten Netzwerken zu testen. Auf dem Vorhersagemarkt Myriad gaben Nutzer eine 49%-Chance dafür ab, dass Claude Mythos bis zum 30. Juni an die breite Öffentlichkeit freigegeben wird.
Eine Gruppe von Forschern behauptete letzte Woche, sie hätten in der Lage gewesen, die Ergebnisse von Mythos mithilfe öffentlich verfügbarer Modelle zu reproduzieren.
Altman schlug vor, dass die Rhetorik rund um hochgefährliche KI-Systeme zunehmen könnte, sobald sich die Fähigkeiten verbessern, argumentierte jedoch, dass nicht alle derartigen Behauptungen für bare Münze genommen werden sollten. Er sagte: „Es wird viel mehr Rhetorik über Modelle geben, die zu gefährlich sind, um sie freizugeben. Es wird auch sehr gefährliche Modelle geben, die auf unterschiedliche Weise freigegeben werden müssen. Ich bin sicher, Mythos ist ein großartiges Modell für Cybersecurity, aber ich glaube, wir haben einen Plan, mit dem wir uns gut fühlen, für die Art und Weise, wie wir diese Art von Fähigkeit in die Welt bringen.“
Altman wies außerdem Vorschläge zurück, dass OpenAI seine Ausgaben für Infrastruktur zurückfährt, und sagte, das Unternehmen werde weiterhin seine Rechenkapazität ausbauen. Er merkte an: „Ich weiß nicht, woher das kommt … die Leute wollen wirklich die Geschichte schreiben, dass man zurückzieht. Aber sehr bald wird es wieder so sein: ‚OpenAI ist so rücksichtslos. Wie können sie so eine verrückte Menge ausgeben?'“