Gate News-Meldung, 23. April — TikTok kündigte eine umfassende Durchsetzung gegen KI-generierte Inhalte an, die die Rechte der Nutzer verletzen, und gab bekannt, dass es bislang über 538.000 Videos entfernt und mehr als 4.000 Konten sanktioniert hat. Die Plattform wird die Durchsetzung vorrangig gegen KI-Deepfakes, Voice-Cloning, Identitätsvortäuschung und nicht autorisierte kommerzielle Nutzungen von Ähnlichkeiten von Prominenten priorisieren.
Laut dem Governance-Bericht von TikTok für 2026 hat die Plattform 360.000 Videos entfernt, die KI-basierte Identitätsvortäuschung und Trend-Jacking beinhalteten, 85.000 Inhalte verarbeitet, die nicht autorisierte KI-generierte Gesichtsdarstellungen und Voice-Cloning enthielten, und über 30.000 Stück irreführenden „KI-Romanze-Betrug“-Inhalts bereinigt, der sich an Nutzer mittleren Alters und ältere Nutzer richtete, wobei 1.300 zugehörige Konten sanktioniert wurden. Die Plattform räumte bestehende Herausforderungen der Branche ein, darunter die Schwierigkeit, KI-generierte Inhalte zu identifizieren, und die Grenzen der Erkennungsfähigkeiten für die Stimme.
Am 9. April kündigte WeChat Updates zu seinen Betriebsstandards für die öffentliche Plattform an und verbot Konten, KI, Skripte oder automatisierte Tools zu verwenden, um menschliche Creator in der Content-Produktion und -Distribution zu ersetzen. Verstöße führen zu Verkehrsbeschränkungen, Löschen von Inhalten oder einer Sperrung des Kontos. Am 27. März hatte WeChat diese Regeln formell festgelegt, die KI-generierten Content, automatisiertes Posten über Skripte und die Bewerbung nicht-menschlicher automatisierter Erstellungs-Methoden abdeckten.
Red Fruit Short Drama berichtete am 6. April, dass es in Q1 2026 1.718 nicht konforme animierte Serien entfernt hat. Nach einem Anstieg der Nutzung nicht autorisierten KI-Materials führte die Plattform umfassende Prüfungen von 15.000 Werken durch, entfernte 670 nicht konforme Produktionen und deckte vier Kategorien typischer Verstöße auf. Die Plattform betonte ihr Engagement, Originalinhalte zu schützen und die nicht autorisierte Nutzung von KI-generierten Materialien zu verhindern.
Disclaimer: The information on this page may come from third parties and does not represent the views or opinions of Gate. The content displayed on this page is for reference only and does not constitute any financial, investment, or legal advice. Gate does not guarantee the accuracy or completeness of the information and shall not be liable for any losses arising from the use of this information. Virtual asset investments carry high risks and are subject to significant price volatility. You may lose all of your invested principal. Please fully understand the relevant risks and make prudent decisions based on your own financial situation and risk tolerance. For details, please refer to
Disclaimer.
Verwandte Artikel
Google Jules wird als End-to-End-agentic Produktentwicklungsplattform umpositioniert und eröffnet Warteliste für neue Version
Gate News Meldung, 23. April — Das Team von Googles Jules gab die Eröffnung einer Warteliste für eine neue Version des Produkts bekannt und positioniert Jules von einem asynchronen Coding-Agenten zu einer End-to-End-agentic Produktentwicklungsplattform neu. Laut der offiziellen Beschreibung liest die aufgerüstete Plattform den gesamten Produktkontext, bestimmt, was als Nächstes gebaut werden sollte, schlägt Lösungen vor und reicht Pull Requests ein.
GateNews39M her
Perplexity offenbart Methode zum Post-Training von Web-Search-Agenten; auf Qwen3.5 basierendes Modell übertrifft GPT-5.4 bei Genauigkeit und Kosten
Perplexity verwendet SFT, gefolgt von RL mit Qwen3.5-Modellen, wobei es einen Multi-Hop-QA-Datensatz und Rubrik-Checks nutzt, um die Suchgenauigkeit und -effizienz zu steigern und eine erstklassige FRAMES-Performance zu erreichen.
Zusammenfassung: Der Post-Training-Workflow von Perplexity für Web-Search-Agenten kombiniert Supervised Fine-Tuning (SFT), um regelkonformes Befolgen von Anweisungen und sprachliche Konsistenz durchzusetzen, mit Online Reinforcement Learning (RL) über den GRPO-Algorithmus. Die RL-Phase nutzt einen proprietären Multi-Hop-verifizierbaren QA-Datensatz sowie rubrikbasierte Konversationsdaten, um ein Abdriften von SFT zu verhindern, mit Reward-Gating und Effizienz-Strafen innerhalb von Gruppen. Die Evaluierung zeigt, dass Qwen3.5-397B-SFT-RL eine Spitzenleistung bei FRAMES erzielt: 57,3% Genauigkeit mit einem einzelnen Tool-Call und 73,9% mit vier Calls bei $0.02 pro Query, und damit GPT-5.4 sowie Claude Sonnet 4.6 in diesen Kennzahlen übertrifft. Die Preisgestaltung erfolgt API-basiert und schließt Caching aus.
GateNews1Std her
Traditionelles Finanzwesen wird laut Ökonom Fu Peng den Einstieg in den Kryptomarkt beschleunigen
Gate News-Mitteilung, 23. April — Fu Peng, Chefvolkswirt der Xinfire Group, teilte seine Einschätzung zur Annäherung von traditionellem Finanzwesen und Krypto-Assets im Rahmen des 2026 Hong Kong Institutional Digital Wealth Management Summit. Laut Fu wird die Integration traditioneller Finanzinstitute mit dem Krypto-Markt ein neues Zeitalter einläuten, wobei die erfolgreichen Teilnehmer diejenigen sein werden, die sich an kritischen Wendepunkten schnell anpassen. Er wies darauf hin, dass technischer Fortschritt und die Störung der globalen Ordnung häufig parallel ablaufen, wobei Risiken und Chancen stets miteinander verflochten sind.
GateNews2Std her
OpenAI Codex Team behebt OpenClaw-Authentifizierungsfehler und verbessert das Verhalten von Agenten deutlich
OpenClaw wechselt von der Pi- auf die Codex-Engine, um ein stilles Authentifizierungs-Fallback zu beheben; zwei PRs adressieren die Bridge und das Fallback. Nach der Behebung wechselt der Agent von oberflächlichem Heartbeat-Polling zu einer vollständigen Work-Loop, wodurch Fortschritt ermöglicht wird.
Abstrakt: Die Optimierung der OpenClaw-Codex-Engine hat einen kritischen Authentifizierungsfehler behoben, der bei der Verwendung von Codex mit OpenAI-Modellen zu einem stillen Fallback auf die Pi-Engine führte. Zwei Pull Requests beheben die Authentifizierungs-Bridge und verhindern das stille Fallback, indem der Runtime-Adapter geändert wird. Dadurch entwickelt sich das Verhalten des Agents von oberflächlichem Heartbeat-Polling zu einer vollständigen Work-Loop: Der Agent liest den Kontext, analysiert Aufgaben, bearbeitet Repositories und überprüft den Fortschritt, wodurch die Kontinuität und Sichtbarkeit über Heartbeats hinweg verbessert wird.
GateNews2Std her
Anthropic Waffensicherheits-Modelle Mythos wurden ohne Genehmigung zugegriffen: Wie haben sie das geschafft?
Bloomberg berichtet, eine private Foren-Gruppe habe unbefugten Zugriff auf Mythos erhalten – über eine rechtmäßige Lizenzierung durch einen Drittanbieter von Anthropic. Mythos ist eine für Unternehmen gedachte defensive KI, die nur für große Organisationen zugänglich ist, die strengen Prüfungen unterzogen werden. Die Gruppe nutzte das Wissen über die Modell-URL, um den Systemstandort zu vermuten, und lieferte Screenshots als Nachweis; sie behauptet, es werde weiterhin verwendet, aber ohne böswillige Absicht. Anthropic untersucht den Vorfall; vorläufig gilt er als Missbrauch von Berechtigungen und nicht als externer Einbruch. Der Vorfall zeigt das Risiko, hochsensiblen Modellen Drittanbieter-Kontrolle zu geben; es sind eine stärkere Governance-Resilienz und Vertrauensmechanismen erforderlich.
ChainNewsAbmedia2Std her
SlowMist CISO warnt: ShinyHunters behauptet, interne Systeme von Anthropic kompromittiert zu haben
Laut einer Warnmeldung, die der Chief Information Security Officer von SlowMist, 23pds, am 23. April auf der X-Plattform veröffentlicht hat, behauptet die Hackergruppe ShinyHunters, in interne Systeme im Zusammenhang mit dem Anthropic Mythos-Modell eingedrungen zu sein, und hat Screenshots als Belege veröffentlicht, darunter ein Benutzerverwaltungs-Panel, ein KI-Experiment-Dashboard sowie Analysen zur Modellleistung und -kosten. Allerdings hat Anthropic offiziell noch keine Stellungnahme veröffentlicht.
MarketWhisper2Std her