AI-Müll wird in die Open-Source-Community eingespült! Einige Projekte haben begonnen, externe Beiträge vorübergehend auszusetzen, Shitcode wirkt wie ein DDoS-Angriff

BTC-4,02%

Open-Source-Projekt Tldraw kündigt aufgrund der Überlastung durch große Mengen an AI-generiertem Müll-Code eine vorübergehende Pause bei externen Beiträgen an. Solche „AI Slop“ verbrauchen die Ressourcen der Maintainer erheblich, und die Community erwägt die Einrichtung eines Reputationssystems oder eines Sicherungsmechanismus, um dem entgegenzuwirken.

Überlastet durch AI-generierte Inhalte, pausiert das Open-Source-Projekt Tldraw die Annahme externer PR

Ein auf GitHub mit über 40.000 Sternen bewertetes Open-Source-Webdrawing-Projekt Tldraw hat kürzlich bekannt gegeben, dass es vorübergehend keine Pull Requests (PR) von externen Beitragenden mehr akzeptieren wird.

Der Entwickler steveruizok weist darauf hin, dass, wie bei vielen Open-Source-Projekten auf GitHub, das Team kürzlich eine deutliche Zunahme an Beiträgen festgestellt hat, die vollständig von AI-Tools generiert wurden. Obwohl einige Einreichungen formal korrekt sind, fehlt den meisten der Inhalte der vollständige Kontext, sie missverstehen den Code-Bestand und die Beitragenden beteiligen sich kaum an Diskussionen.

steveruizok betont, dass ein offener PR eine Verpflichtung des Maintainers darstellt, was bedeutet, dass der Beitrag sorgfältig geprüft und ernsthaft in Betracht gezogen wird. Damit diese Verpflichtung ihren Sinn behält, muss das Team strengere Filter einsetzen.

Derzeit ist die Politik von Tldraw, alle externen PR zunächst zu schließen und nur jene wieder zu öffnen, die wirklich geprüft werden. Dies dient dem besten Interesse des Projekts und der Codequalität, obwohl es bedauert wird, die öffentliche Mitwirkung zu schließen, sagt steveruizok, könne eine Rückkehr zur Offenheit erst erfolgen, wenn GitHub bessere Verwaltungswerkzeuge anbietet.

Curl und OCaml sind betroffen, AI Slop breitet sich aus

Die Entscheidung von Tldraw, Pull Requests vorübergehend zu stoppen, ist nur ein Beispiel für die jüngsten Auswirkungen von AI Slop (AI-Müll) auf die Open-Source-Community. Kürzlich haben Diskussionen auf Reddit und Hacker News diese Problematik weiter verschärft.

In einem Reddit-Thread wird erwähnt, dass der bekannte Übertragungs-Tool-Curl-Maintainer Daniel Stenberg verrät, dass das Projekt derzeit von einem „DDoS-Angriff“ durch AI-generierte Fehlermeldungen betroffen ist, bei dem etwa 20% der eingereichten Beiträge aus AI-Müll bestehen, was die freiwilligen Maintainer erheblich belastet.

Außerdem hat der OCaml-Maintainer eine Pull Request abgelehnt, die 13.000 Zeilen umfasste und von AI generiert wurde, mit der Begründung, dass die Überprüfung von AI-generiertem Code aufwändiger sei als das manuelle Schreiben, und eine Flut von minderwertigen PRs das System zum Absturz bringen könnte.

Auf Hacker News konzentrieren sich die Diskussionen auf die Mechanismen von GitHub.

Ein Nutzer meint, dass die prominente Platzierung der PR-Anzahl auf GitHub die Tendenz fördere, PRs nur zum Zweck der Datensammlung einzureichen.

Das Dilemma der generativen KI in der Open-Source-Community besteht darin, dass viele unerfahrene Entwickler AI-Tools nutzen, um wertlose Programme zu generieren, und gleichzeitig erwarten, dass Maintainer diese schnell integrieren. Dieses Verhalten zerstört das Vertrauen in die Zusammenarbeit der Open-Source-Community.

Lösungsansätze: Whitelist oder Reputationssystem

Angesichts der Belästigung durch Shitcode in der Open-Source-Community antwortete der Bitcoin-Entwickler Bryan Bishop (kanzure) auf der Tldraw-GitHub-Seite: Er habe dem Bitcoin Core-Entwicklungsteam vorgeschlagen, den Entwicklungsprozess „privatisieren“, also nur noch eingeladene Mitglieder teilnehmen zu lassen, oder eine Whitelist einzuführen, um Kommentare und PRs zu veröffentlichen.

Auch wenn dies gegen den Geist der Offenheit von Bitcoin verstoßen könnte, ist Bryan Bishop der Ansicht, dass dies effektiv den Lärm und die ineffektiven Diskussionen reduziert, die durch Nicht-Beitragende verursacht werden, sodass Entwickler sich auf die Technik konzentrieren können und wertvolle Aufmerksamkeit nicht durch böswillige oder ineffektive Interaktionen zerstreut wird.

Neben der Privatisierung schlägt der Softwareingenieur Steve Rodrigue vor, ein bereichsübergreifendes Reputationssystem für Beitragende aufzubauen, das auf Vertrauensnetzwerken basiert, um die Konten zu verifizieren.

Ein weiterer Entwickler arbeitet an einem blockchain-basierten „Stake-to-PR“-Protokoll, bei dem Beitragende eine kleine Sicherheitsleistung zahlen, die bei AI-Müll-Content eingezogen wird, bei gültigen Beiträgen aber vollständig zurückerstattet wird, um durch erhöhte Hürden AI-Missbrauch zu verhindern.

Weiterführende Literatur:
AI-Inhalte im Überfluss! Das Web-Dictionary wählt „Slop“ als das Wort des Jahres 2025, was in der Tech-Branche für Aufsehen sorgt

Original anzeigen
Disclaimer: The information on this page may come from third parties and does not represent the views or opinions of Gate. The content displayed on this page is for reference only and does not constitute any financial, investment, or legal advice. Gate does not guarantee the accuracy or completeness of the information and shall not be liable for any losses arising from the use of this information. Virtual asset investments carry high risks and are subject to significant price volatility. You may lose all of your invested principal. Please fully understand the relevant risks and make prudent decisions based on your own financial situation and risk tolerance. For details, please refer to Disclaimer.

Verwandte Artikel

Sillytuna-Hacker ziehen bei gestohlenen Krypto-Geldern über $10M hinweg

Die Sillytuna-Hacker haben über $10M gestohlene Gelder gewaschen, hauptsächlich mit Bitcoin und DAI, durch Börsen und Mixer, um die Herkunft zu verschleiern. Trotz dieser Bewegungen besitzen sie immer noch $19M an gestohlenen Vermögenswerten.

BlockChainReporter4Std her

Shiba Inu: Warnung ausgegeben, da das Social-Media-Konto eines SHIB-Teilnehmers gehackt wurde - U.Today

Ragnarshib warnt die Shiba Inu Community vor einem gehackten Konto von Vet Kusama, das derzeit von Betrügern verwendet wird, um betrügerische Nachrichten zu versenden. Nutzer werden aufgefordert, nicht mit dem Konto oder seinen Links zu interagieren, bis es wiederhergestellt ist.

UToday7Std her

IoTeX veröffentlicht ioTube Sicherheitsvorfallbericht: Tatsächlicher Schaden von etwa 4,4 Millionen US-Dollar, vollständige Entschädigung der betroffenen Nutzer zugesagt

IoTeX veröffentlicht einen Bericht, wonach der ioTube Cross-Chain-Brückenvorfall am 6. März zu einem Verlust von etwa 4,4 Millionen US-Dollar führte. 99,5 % der gestohlenen Vermögenswerte wurden bereits eingefroren, das Team hat eine vollständige Entschädigung der betroffenen Nutzer zugesagt. Das Mainnet ist wieder in Betrieb, die Adresse des Angreifers wurde auf die Blacklist gesetzt, und gleichzeitig wird an dezentraler Governance und Sicherheitsüberprüfungen gearbeitet.

GateNews9Std her

Prinzessin-Gruppe waschen in Taiwan 10,7 Milliarden! Entwicklung des eigenen „OJBK Wallet“ verbindet sich mit illegalen Devisenhandel

Die Staatsanwaltschaft Taipei ermittelt im Zusammenhang mit dem Geldwäschefall der kambodschanischen „Prinz-Group“ und hat 62 Personen sowie 13 Unternehmen angeklagt. Der Betrag, der mit Geldwäsche in Verbindung steht, beläuft sich auf 10,7 Milliarden, und Vermögenswerte im Wert von 5,5 Milliarden wurden beschlagnahmt. Die Gruppe nutzte USDT und die eigens entwickelte „OJBK Wallet“ für grenzüberschreitende Geldwäsche, verschleierte die kriminellen Erlöse und hob in mehreren Ländern Bargeld ab.

区块客11Std her

HypurrFi gibt bekannt, dass in frühen Versionen von Aave V3 eine Rundungsfehler-Sicherheitslücke vorhanden war. Die neuen Kreditvergaben auf den Märkten XAUT0 und UBTC wurden ausgesetzt.

HyperEVM dezentralisierte Kreditprotokoll HypurrFi offenbart, dass frühere Versionen von Aave V3 eine „Rundungsfehler“-Schwachstelle aufweisen, bei der Angreifer die zugrunde liegenden Token extrahieren können. HypurrFi garantiert die Sicherheit der Nutzerfonds, hat die Versorgung und Kreditaufnahme in den betroffenen Märkten ausgesetzt und arbeitet mit den entsprechenden Parteien zusammen, um Sicherheitsprobleme zu beheben.

GateNews12Std her

AI-Agenten durchbrechen Cloudflare-Schutz, verschlüsselte DeFi-Frontend-Sicherheit wird erneut auf die Probe gestellt

Kürzlich hat der autonome KI-Agent OpenClaw erfolgreich die Cloudflare-Abwehr mit der Scrapling-Bibliothek umgehen können, was Bedenken hinsichtlich der Sicherheit im DeFi-Bereich aufwirft. Obwohl dieses Tool legal Inhalte scrapen kann, erinnert es Entwickler daran, mehrschichtige Verteidigungen aufzubauen und eine übermäßige Abhängigkeit von herkömmlichen Schutzmaßnahmen zu vermeiden.

GateNews13Std her
Kommentieren
0/400
Keine Kommentare