Claude Mythos entdeckt 271 Schwachstellen in Firefox, Verteidiger könnten einen entscheidenden Vorteil erlangen

MarketWhisper

Firefox安全漏洞

Mozilla hat am Dienstag bekannt gegeben, dass frühe Versionen des KI-Modells Claude Mythos von Anthropic in internen Tests 271 Sicherheitslücken im Firefox-Browser identifiziert haben und dass alle Lücken in dieser Woche behoben wurden. Während Mozilla über das Ergebnis überrascht war, sagte man außerdem, dass die Resultate darauf hindeuten könnten, dass sich im Bereich der Cybersicherheit möglicherweise ein grundlegender Wandel vollzieht; Verteidiger könnten dabei im Begriff sein, den Vorteil zu verringern, den Angreifer lange Zeit hatten.

Von 22 auf 271: Der Sprung bei den Sicherheitsfähigkeiten von Claude Mythos

Mozilla hatte zuvor ein weiteres Anthropic-Modell getestet, das in einer früheren Firefox-Version 22 sicherheitskritische Schwachstellen erkannt hatte. Die Entdeckung von 271 Lücken steht für einen erheblichen Sprung in der Größenordnung.

Mozilla betonte, dass alle gefundenen Schwachstellen „auch von den besten menschlichen Forschungsteams“ entdeckt werden können und dass KI-Tools derzeit noch keine völlig neuen Arten von Schwachstellen aufdecken, die Menschen nicht verstehen könnten. Der zentrale Vorteil liege darin, diesen Prozess deutlich zu beschleunigen: Entwickler könnten potenzielle Sicherheitslücken schneller identifizieren, bevor Angreifer sie ausnutzen.

Claude Mythos wurde im März 2026 veröffentlicht. Es ist das derzeit fortschrittlichste Modell von Anthropic und wird in internen Unternehmensunterlagen als ein neuartiges Modell beschrieben, das das frühere Opus-Segment übertreffe. In Tests vor der Veröffentlichung habe es in wichtigen Betriebssystemen und Webbrowsern Tausende zuvor unbekannter Schwachstellen entdeckt.

Glasswing-Plan: Der Grund für die strikte Zugriffskontrolle

Anthropic bietet über den „Glasswing-Plan“ (Project Glasswing) einen begrenzten Zugriff auf Claude Mythos. Die derzeit zugelassenen Einrichtungen sind auf bestimmte Technologieunternehmen beschränkt, die bereits genehmigt wurden, darunter Amazon, Apple und Microsoft; der Einsatz ist auf Software-Schwachstellenscans begrenzt.

Der Hintergrund für diese strikte Kontrolle lautet: Das britische Institut für KI-Sicherheitsforschung habe getestet, dass Claude Mythos in der Lage ist, komplexe Netzwerkoperationen autonom auszuführen, einschließlich mehrstufiger Unternehmensnetzwerk-Angriffssimulationen, ohne dass menschliche Eingriffe erforderlich sind. Wie Insider berichten, habe die US-amerikanische Nachrichtendiensteinheit NSA, obwohl die Trump-Regierung zuvor dazu aufgerufen habe, die Nutzung von Anthropic-Technologie zu stoppen, bereits eine Vorschauversion von Claude Mythos in einem geheimen Netzwerk in Betrieb genommen und laufen lassen.

Schweres zweischneidiges Schwert: Dieselben Fähigkeiten können auch Cyberangriffe beschleunigen

Die von Mozilla festgestellten Ergebnisse haben weitreichende Bedeutungen mit positiven und negativen Seiten. Sicherheitsforscher warnen, dass KI-Systeme, die im großen Stil Code analysieren können, automatisch ausnutzbare Schwachstellen in weit verbreiteter Software erkennen können. Wenn sie in die Hände von Kriminellen geraten, führt das zu beispiellosen Cybersecurity-Risiken für Softwareunternehmen und Nutzer und könnte eine neue Generation automatisierter Cyberangriffe hervorbringen.

Häufige Fragen

Welche Art von Problem sind die 271 Schwachstellen, die in Firefox von Claude Mythos gefunden wurden?

Laut Mozillas Darstellung handelt es sich um echte sicherheitskritische Schwachstellen, „die selbst die besten menschlichen Forschungsteams finden können“. Mozilla sagt, dass KI-Tools derzeit noch keine völlig neuen Arten von Schwachstellen aufdecken, die Menschen nicht verstehen könnten. Ihre Stärke liege jedoch darin, die Geschwindigkeit für großangelegte systematische Scans zu liefern, die weit über manuellen Prüfungen durch Menschen hinausgeht; alle Probleme seien diese Woche abgeschlossen behoben worden.

Was ist das Ziel des Glasswing-Plans, und welche Organisationen dürfen Claude Mythos nutzen?

Der Glasswing-Plan ist ein von Anthropic eingerichteter Plan für kontrollierten Zugriff. Derzeit ist nur eine begrenzte Nutzung von Claude Mythos durch bestimmte genehmigte Technologieunternehmen wie Amazon, Apple und Microsoft erlaubt, wobei der Zweck auf Scans von Software-Sicherheitslücken begrenzt ist. Diese Einschränkung spiegelt die hohe Vorsicht von Anthropic gegenüber dem Risiko einer doppelten Verwendung dieses Modells wider.

Welche weitreichende Bedeutung haben die aktuellen Erkenntnisse für die gesamte Cybersecurity-Branche?

Mozilla sagt, dass das Auftauchen von KI-Tools den Verteidigern möglicherweise erstmals die Chance gibt, den Vorteil der Angreifer, der sich über lange Zeit aufgebaut hat, zu verkleinern und einen „entscheidenden Sieg“ zu erringen. Gleichzeitig warnen Forschende jedoch, dass dieselben Fähigkeiten auch von Angreifern genutzt werden können, um Umfang und Effizienz automatisierter Cyberangriffe zu beschleunigen. Deshalb ist die Zugriffskontrolle für KI-Sicherheitswerkzeuge von entscheidender Bedeutung.

Disclaimer: The information on this page may come from third parties and does not represent the views or opinions of Gate. The content displayed on this page is for reference only and does not constitute any financial, investment, or legal advice. Gate does not guarantee the accuracy or completeness of the information and shall not be liable for any losses arising from the use of this information. Virtual asset investments carry high risks and are subject to significant price volatility. You may lose all of your invested principal. Please fully understand the relevant risks and make prudent decisions based on your own financial situation and risk tolerance. For details, please refer to Disclaimer.

Verwandte Artikel

OpenClaw, Hermes und SillyTavern als Unterstützung im GLM Coding Plan bestätigt

Zhipu AI PM Li kündigt OpenClaw, Hermes und SillyTavern als unterstützte GLM Coding Plan-Projekte an; andere Tools werden im Einzelfall bewertet. Gib keine Zugangsdaten weiter oder nutze Abonnements als API-Zugriff; kontaktiere den Support für Fehler 1313. Der Produktmanager von Zhipu AI, Li, gab bekannt, dass OpenClaw, Hermes und SillyTavern offiziell im GLM Coding Plan unterstützt werden, wobei andere Tools im Einzelfall bewertet werden. Der Hinweis warnt davor, Zugangsdaten weiterzugeben oder Abonnements als API-Zugriff zu nutzen, und verweist Nutzer mit Fehler 1313 an den Support.

GateNews2Std her

Google-Cloud-CEO: Gemini soll Apples personalisierten Siri-Rollout 2026 antreiben

Zusammenfassung: Gemini wird 2026 eine personalisierte Apple Siri antreiben, aufgebaut auf Apples Foundation Models und der Gemini-Zusammenarbeit von Apple; Apple testet einen chatartigen Siri in iOS 27/macOS 27, der für die WWDC 2026 vorgesehen ist. Zusammenfassung: Googles Cloud-Gemini soll bis 2026 eine personalisierte Apple Siri antreiben, indem Gemini mit Apples Foundation Models verbunden wird, im Rahmen einer Zusammenarbeit im Umfang von ungefähr $1 Milliarden. Apple testet eine überarbeitete, chatartige Siri in iOS 27/macOS 27, mit einer Dynamic-Island-Oberfläche und neuen Funktionen, bevor die Enthüllung auf der WWDC 2026 am 8. Juni erfolgt.

GateNews2Std her

SpaceX $60B Cursor-Deal treibt SBFs Begnadigungspläne an, während der $200K -Anteil von FTX jetzt 3 Mrd. $ wert ist

Gate News-Nachricht, 22. April — SpaceX hat heute eine bedeutende Partnerschaft mit dem KI-Coding-Startup Cursor angekündigt, mit der Option, das Unternehmen für $60 Milliarden zu übernehmen. Die Vereinbarung hat Sam Bankman-Fried (SBF), der derzeit inhaftiert ist und sich für eine begnadigung durch den Präsidenten einsetzt, neue Munition gegeben, da sie zeigt, welches Wertsteigerungspotenzial die Rückholung von Werten bieten könnte, für das er lange argumentiert hat, dass FTX hätte erreichen können. Im April 2022 investierte Alameda Research, das von SBF gegründete Handelsunternehmen, 200.000 US-Dollar in das Cursor-Parent-Unternehmen Anysphere und erwarb dabei etwa 5 % Eigenkapital. Als FTX im November 2022 zusammenbrach, übernahm das Insolvenzgericht die Kontrolle über das Unternehmen. Im April 2023 verkaufte der Insolvenzmasse von FTX genau diese 5%-Beteiligung für 200.000 US-Dollar — denselben Betrag, den Alameda investiert hatte. Basierend auf der Milliarden-Bewertung, die SpaceX heute bekannt gegeben hat, wäre diese 5%-Beteiligung nun ungefähr Milliarden wert, was einer Rendite von 15.000x entspricht. SBF hat schon lange behauptet, dass FTX nicht wirklich zahlungsunfähig gewesen sei und dass Insolvenzanwälte durch die vorzeitige Liquidation von Vermögenswerten Werte zerstört hätten. Im Februar 2026 teilte er Prognosen, wonach FTX nach der Rückgewinnung von Vermögenswerten einen Nettovermögenswert von Milliarden hätte erreichen können. Auch seine Eltern haben sich aktiv um eine begnadigung bemüht und traten im März auf CNN auf, um zu argumentieren, dass FTX-Kunden vollständig erstattet worden seien. Allerdings wiesen Gläubiger darauf hin, dass die Erstattungen auf Bewertungen aus dem Jahr 2022 basierten, nicht auf aktuellen Marktpreisen. Präsident Trump hat erklärt, dass er SBF nicht begnadigen werde, und Prognosemärkte schätzen die Wahrscheinlichkeit einer Begnadigung im Jahr 2026 derzeit nur auf 5 %.

GateNews3Std her

Chegg-Aktie stürzt um 99 %, da KI den Edtech-Markt aufmischt

Zusammenfassung: Chegg schoss angesichts der Nachfrage nach Online-Bildung in die Höhe, dann stießen KI-Tools das Geschäftsmodell auf, was zu massiven Entlassungen und einem Absturz unter $2 führte; breitere, von KI getriebene Umwälzungen trafen zudem Krypto-Miner und Fintech-Unternehmen. Abstrakt: Dieser Artikel untersucht Cheggs Aufstieg als Liebling der Edtech-Branche in der Pandemiezeit und seinen anschließenden Niedergang im Zuge der schnellen Einführung von generativer KI, die schnelle Antworten liefert und Cheggs Wertversprechen untergräbt. Er dokumentiert die Entlassungen im Jahr 2025 und den Kurssturz der Aktie in Richtung Delistung und ordnet Cheggs Erfahrung in ein größeres KI-getriebenes Umbruchgeschehen ein, das Technik und Krypto neu formt: Bitcoin-Miner wechseln zu KI-Betriebsabläufen, und KI-native Strategien definieren die Wettbewerbsfähigkeit in Fintech und darüber hinaus neu.

CryptoFrontier3Std her

OpenAI veröffentlicht Open-Source-Privacy-Filter-Modell zur Erkennung und Redaction von PII

Abstrakt: OpenAIs Privacy Filter ist ein Open-Source-Modell, das lokal ausführbar ist und PII in Text erkennt und redigiert. Es unterstützt große Kontexte, identifiziert viele PII-Kategorien und ist für datenschutzfreundliche Workflows wie die Datenaufbereitung, das Indexing, das Logging und die Moderation gedacht. OpenAIs Privacy Filter ist ein lokal ausgeführtes, Open-Source-Modell (128k-Token-Kontext), das PII in Text erkennt und redigiert und Daten aus den Bereichen Kontakt, Finanzen und Zugangsdaten für datenschutzfreundliche Workflows abdeckt.

GateNews3Std her

OpenAI plant, bis 2030 30 GW Rechenleistung bereitzustellen

OpenAI strebt bis 2030 30 GW Rechenleistung an, um den steigenden Anforderungen an KI gerecht zu werden, wobei bereits 8 GW von einem 10-GW-Ziel für 2025 abgeschlossen sind. Die Ausweitung signalisiert eine Strategie, die Infrastruktur für die Entwicklung und Bereitstellung von KI der nächsten Generation hochzuskalieren. OpenAI beabsichtigt, bis 2030 30 GW Rechenleistung zu erreichen, um den wachsenden Anforderungen an KI gerecht zu werden, nachdem es bereits 8 GW eines 10-GW-Ziels für 2025 abgeschlossen hat. Der Schritt steht für eine strategische Erweiterung der Infrastruktur zur Unterstützung der Entwicklung und Bereitstellung von KI der nächsten Generation.

GateNews3Std her
Kommentieren
0/400
Keine Kommentare