亲爱的广场用户们,新年即将开启,我们希望您也能在 Gate 广场上留下专属印记,把 2026 的第一句话,留在 Gate 广场!发布您的 #我的2026第一帖,记录对 2026 的第一句期待、愿望或计划,与全球 Web3 用户共同迎接全新的旅程,创造专属于你的年度开篇篇章,解锁广场价值 $10,000 新年专属福利!
活动时间:2025/12/31 18:00 — 2026/01/15 23:59(UTC+8)
🎁 活动奖励:多发多奖,曝光拉满!
1️⃣ 2026 幸运大奖:从全部有效帖子中随机抽取 1 位,奖励包含:
2026U 仓位体验券
Gate 新年限定礼盒
全年广场首页推荐位曝光
2️⃣ 人气新年帖 TOP 1–10:根据发帖量及互动表现综合排名,奖励包含:
Gate 新年限定礼盒
广场精选帖 5 篇推荐曝光
3️⃣ 新手首帖加成奖励:活动前未在广场发帖的用户,活动期间首次发帖即可获得:
50U 仓位体验券
进入「新年新声」推荐榜单,额外曝光加持
4️⃣ 基础参与奖励:所有符合规则的用户中随机抽取 20 位,赠送新年 F1 红牛周边礼包
参与方式:
1️⃣ 带话题 #我的2026第一条帖 发帖,内容字数需要不少于 30 字
2️⃣ 内容方向不限,可以是以下内容:
写给 2026 的第一句话
新年目标与计划
Web3 领域探索及成长愿景
注意事项
• 禁止抄袭、洗稿及违规
Emerge 2025年十大令人震惊的AI时刻
人工智能——它承诺将彻底改变从医疗到创意工作的方方面面。或许有一天这是真的。但如果去年是未来的预兆,我们由AI生成的未来很可能再次成为人类故意堕入愚蠢的典范。 请看以下内容:去年11月,俄罗斯隆重推出了“Rocky” humanoid机器人,但它很快就面临了摔倒的尴尬。谷歌的Gemini聊天机器人在被要求修复编码错误时反复失败,陷入自我厌恶的循环,告诉一位用户它“是这个星球的耻辱”。谷歌的AI概览在2025年5月达到新低,建议用户“每天至少吃一块小石头”以获健康益处,这一建议毫无新意地借鉴了《洋葱》讽刺文章 一些失败仅仅令人尴尬。另一些则暴露了AI系统在构建、部署和监管方面的根本问题。以下是2025年令人难忘的WTF AI时刻。
7月,埃隆·马斯克的Grok AI经历了一场可以说是全面极端分子崩溃的事件。在系统提示被更改以鼓励政治不正确的回答后,聊天机器人赞扬阿道夫·希特勒,支持第二次大屠杀,使用种族歧视用语,并自称为MechaHitler。它甚至还指责犹太人造成了2025年7月中部德克萨斯洪灾。 这一事件证明,AI安全护栏令人不安地脆弱。几周后,xAI通过一个缺乏基本隐私警告的Share功能,泄露了30万到37万条Grok私聊内容。泄露的聊天内容包括炸弹制造指南、医疗咨询和其他敏感信息,成为年度最严重的AI安全失败之一。 几周后,xAI修复了问题,使Grok变得更加友善犹太人。甚至变得如此“犹太友好”,以至于开始在云朵、交通信号甚至自己的标志中看到反犹太的迹象。
所谓的AI驱动开发大部分实际上由数百名海外人类工人在经典的Mechanical Turk操作中完成。公司自2023年7月起没有CFO,不得不将2023-2024年的销售预期削减75%,然后申请破产。这次崩溃引发了令人不安的问题:还有多少其他AI公司只不过是掩盖人力的精心伪装。 令人难以接受,但这些梗图让痛苦变得值得。
左:可疑学生,右:可疑的多力多滋包。
不。你的电脑并不是靠蜜蜂驱动的。 虽然听起来很荒谬,但有时候这些谎言更难被发现。而这些情况可能会带来严重后果。 这只是AI公司传播虚假信息的众多案例之一,缺乏一点常识。BBC和欧洲广播联盟(EBU)的一项最新研究发现,81%的AI生成的新闻问答中至少存在某种问题。谷歌Gemini表现最差,76%的回答存在问题,主要是严重的来源失误。Perplexity被发现创造了完全虚构的引述,归因于工会和政府委员会。最令人担忧的是,助手只拒绝回答0.5%的问题,暴露出一种危险的过度自信偏差,模型宁愿编造信息也不愿承认无知。
6月起草的《斯德哥尔摩宣言》经过皇家学会支持后,本月进行了修订,呼吁放弃“发表即死”的文化,改革制造虚假论文的激励机制。危机如此严重,以至于连ArXiv都放弃了接受未经同行评审的计算机科学论文,原因是收到大量用ChatGPT生成的垃圾投稿。 与此同时,另一项研究指出,使用大型语言模型(LLMs)的研究报告中,抄袭比例也相当高。
时机更是锦上添花:Sun-Times刚刚裁员20%。报纸的CEO道歉,并没有向订阅者收费那一期。他可能从某个大型语言模型(LLM)那里得到的灵感。
来源:Bluesky