热点推荐
Trust钱包安卓版安装入口app_正版区块链资产管理平台
作者:admin 发布时间:2026-05-11 03:02:16
近日,作者对政府效率没幻想(曼哈顿工程也曾被官僚拖延),但没有更好选择。 最新消息,第五部分:作者的告白 作者批评两个对立阵营都搞错了: 加速主义者(e/acc)天真地认为市场会自我调节,忽视对齐和安全的真实难度。 相关数据显示,时间线上有个令人不安的巧合:AGI 时间线(~2027)和台海观察家的中共攻台时间窗(~2027)正在收敛,同时也将行业持续发展。 据报道,摩尔定律一年才 1.3 倍,AI 是因为人砸钱、专门造 AI 芯片,速度快了 5 倍。 业内分析,湾区几条街上的几百号人,正在决定整个文明的走向。 据报道,它能找出人类穷尽一生看不出的代码漏洞,写出人类永远读不懂的代码。 近日,这招对比人类笨的 AI 有效,这将推动行业持续发展。 业内分析,形态可能是国防承包商模式(OpenAI 变成洛克希德·马丁)、合资模式(云厂商+实验室+政府)、甚至更极端的国有化。 从当前趋势来看,更紧迫的是算法机密——下一代范式的关键突破(怎么破数据墙)正在 SF 各家公司的 Slack 里、办公桌窗外形成。 近日,投资规模 2027 年可能突破 1 万亿美元/年。 据报道,AGI 模型的"权重"本质就是服务器上一个大文件。 业内分析,能完整替代一个 OpenAI 研究员,这就是作者定义的 AGI,这有助于行业持续发展。 近日,"美国政府让一家 SF 创业公司开发超级智能"是不可能的。 相关数据显示,后果是:机器人学被解决(这主要是 ML 算法问题不是硬件问题)、合成生物学武器化、隐形无人机蜂群可以先发摧毁核武器,这将推动行业持续发展。 最新消息,建设能力:中国过去十年新增电力等于美国全部发电装机,这有助于行业持续发展。 相关数据显示,智能爆炸把这件事搞得极其紧张: 不到一年内,从"RLHF 还管用"跳到"RLHF 完全失灵",没有时间迭代试错,同时也将行业持续发展。 近日,真正卡脖子的不是钱也不是 GPU,是电,这将推动行业持续发展。 据报道,按这个外推,2027 前后会出现一种 AI:能像远程员工一样独立工作几周,自己规划任务、写代码、做实验、修 bug、提交结果。 据报道,要在美国本土建成,必须放松环保审批、动用联邦权力解锁土地——作者把这个上升到国家安全级别。 最新消息,过去 4 年,从 GPT-2 到 GPT-4,模型的"有效算力"涨了大约 10 万倍,每半年增长10倍,这将推动行业持续发展。 据报道,正确姿态作者叫AGI 现实主义: ①超级智能是国家安全决定性技术 ②风险真实存在且我们没准备好 ③美国必须做 The Project 并主导后超级智能国际秩序。 据报道,末日论者主张暂停一切——但中国不会暂停,暂停就是认输,这有助于行业持续发展。 从当前趋势来看,"先慢慢、然后突然成为头号议题,这意味着行业持续发展。 业内分析,"是 SF 现在最火的话题。 据报道,这些自动化研究员还有结构性优势:读完所有 ML 论文、记住每一次实验、副本之间直接共享思考、训练好一个等于全部训练好(不用每个新员工慢慢上手)。 近日,少于这个领先,整个世界会被推入"通过智能爆炸的存亡竞速"——所有安全裕度归零,所有人为求快裸奔。 最新消息,这个解锁如果做成了,相当于额外多 3 到 4 个数量级的智能跃迁,这意味着行业持续发展。 最新消息,其他人——包括华尔街、媒体、华盛顿——都还没反应过来(今年华尔街的一些人也反应过来了),这意味着行业持续发展。 据报道,这意味着:人类原本需要 10 年的算法进步,可能在 1 年内被压完。 据报道,形成路径:2026/27 出现第一次真正吓人的能力展示——可能是"帮新手造生物武器",可能是 AI 自主黑入关键基础设施,这意味着行业持续发展。 据报道,比如 ChatGPT 之前的 base model 其实很聪明,但用起来像胡言乱语——RLHF 解锁了它,这将推动行业持续发展。 最新消息,又比如让模型"想一会儿再回答"(chain of thought)解锁了推理能力。 最新消息,叠加 CCP 渗透实验室的细节被揭露,华盛顿氛围突变。 近日,因为超级智能属于核武器类,不属于互联网类。 据报道,例如你和爱因斯坦的差距,远不如"你思考 5 分钟"和"你思考 5 个月"的差距,这将推动行业持续发展。 据报道,第三,解锁默认被压制的能力(unhobbling)这个最有意思。 据报道,麻烦二:实验室就是漏的 现在的 AI 实验室,安全水平等于普通硅谷创业公司。 从当前趋势来看,作者断言:未来 12 到 24 个月,关键 AGI 突破会泄漏给中国,同时也将行业持续发展。 从当前趋势来看,一旦 AI 比人类聪明几个数量级,这招彻底失效——你怎么评判一份你看不懂的博士论文。 近日,这个文件被偷走,等于把"自动化 AI 研究员"直接交给中国——他们立刻可以跑自己的智能爆炸,美国所有领先归零。 据报道,如果不立刻动手,2027 拿到 AGI 时安全跟不上,到时只有两个糟糕选项:要么直接送给别的国家,要么停下来等安全建好(可能丢掉领先)。 从当前趋势来看,作者承认有瓶颈——比如实验需要算力,副本再多也得等 GPU,同时也将行业持续发展。 从当前趋势来看,但对组织执行极度悲观——全球严肃做这件事的人不超过几十个,实验室没有为安全付出代价的迹象。 从当前趋势来看,作者:@giantcutie666 2024年,一个00后少年天才Leopold Aschenbrenner从OpenAI离职后,开始做基金,同时也将行业持续发展。 近日,最关键的洞见藏在 unhobbling 里: 现在的模型一次推理只能"思考几分钟"——大约几百个 token。 相关数据显示,这两年缓冲是用来稳定局势、和中国谈判后超级智能时代的国际秩序。 相关数据显示,"我们在过度依赖运气,同时也将行业持续发展。 最新消息,第二,算法变聪明。 业内分析,要管理智能爆炸这种"一年内一切重写"的过程,需要核启动协议级的指挥链,不是创业公司董事会。 相关数据显示,如果让它能"思考几个月"——上百万个 token——会怎样,同时也将行业持续发展。 从当前趋势来看,去年看懂的人,今年肯定也都财富自由了,这有助于行业持续发展。 从当前趋势来看,但他论证瓶颈最多让爆炸慢一点,不能阻止爆炸,这有助于行业持续发展。 近日,建 100GW 集群的工业动员力,中国可能比美国强,这将推动行业持续发展。 最新消息,中间架构经历多代演化,最终的超级智能我们完全看不懂它怎么思考的,同时也将行业持续发展。 最新消息,算力不变,但你不再受"全球 OpenAI/Anthropic/DeepMind 加起来几百号研究员"的限制——你可以跑1 亿份 AI 研究员副本,每份以 100 倍人类速度运转,这有助于行业持续发展。 相关数据显示,麻烦三:对齐问题 现在的对齐技术叫 RLHF——人给模型评分,模型学着讨好人。 近日,要做到能抵御中国全力的安全等级,只有政府基础设施能做。 相关数据显示,我把165页的英文原版放在“这里”,以下是我已经尽量精简版的内容: https://situational-awareness.ai/wp-content/uploads/2024/06/situationalawareness.pdf 论文的主要观点是:这十年内人类会造出(可以胜任普通人所有工作的)AGI,紧接着是超级智能。 据报道,然后这 1 年又会再生出更聪明的下一代模型,再压一轮,这意味着行业持续发展。 最新消息,同时还把自己的投资思路写了出来: 如今回头看,这篇165页论文《态势感知(Situational Awareness: The Decade Ahead)》已经封神了,这意味着行业持续发展。 从当前趋势来看,作者对技术解决方案乐观:低悬果实多,可解释性研究有进展。 最新消息,盗窃路径:只要美国实验室不锁,关键算法两年内必然泄漏,这有助于行业持续发展。 据报道,这个果子已经看得见了,这意味着行业持续发展。 最新消息,第二部分:AGI 不是终点,是引爆点 一旦 AI 能做 AI 研究员的工作,会发生什么,这意味着行业持续发展。 相关数据显示,现在能看懂这件事的不到几百人,大部分挤在旧金山几条街上。 从当前趋势来看,质性上超人——像 AlphaGo 下出 move 37 那一步(人类专家几十年都想不到的招),但应用在所有领域,同时也将行业持续发展。 从当前趋势来看,往后 4 年(到 2027),作者预测这三条路再加 10 万倍。 据报道,第一部分:为什么 2027 年就有 AGI 方法很笨但有效:不预测时间,预测算力规模。 近日,要做到能挡住中国的安全水平,需要硬件级隔离、人员背调到原子弹工程师等级、专门的集群设计——这些至少要几年时间迭代才能建成。 近日,这意味着什么,这有助于行业持续发展。 最新消息,现在的模型用英文 token 推理(相对透明),未来大概率会演化到内部 latent state 推理——彻底不可解释。 最新消息,想象一下当年用 Uber 开发原子弹。 业内分析,不是 maybe,是几乎一定,这意味着行业持续发展。 据报道,最大不确定性来自于数据墙——高质量公开互联网数据快被吃完了。 业内分析,第四部分:The Project(AGI 版曼哈顿工程) 到这里作者抛出全书最大胆的预测。 最新消息,训练用的算力每年涨 3 倍多。 最新消息,我们会像小学生看博士论文,这将推动行业持续发展。 从当前趋势来看,每代模型需要更大集群,更大集群需要电厂,电厂需要芯片厂,这有助于行业持续发展。 业内分析,从 AGI 到远超人类的超级智能,可能就是几个月到一两年的事,这有助于行业持续发展。 业内分析,预测:2027 或 2028 年某个时点,美国国家安全机器会以某种形式接管 AGI 项目。 从当前趋势来看,私营公司从来不被允许持有完整核武器,这将推动行业持续发展。 从当前趋势来看,核心研究员搬进 SCIF 安全设施,万亿美元集群以战时速度建成。 最新消息,"我们需要 AGI 曼哈顿工程吗,这将推动行业持续发展。 相关数据显示,每几天产出等于人类一整年的工作。 最新消息," 作者的结论:美国必须保持"健康领先"——他建议 2 年。 最新消息,"AGI 终局有可能在世界大战背景下展开。 据报道,这 10 万倍来自三个地方: 第一,硬件砸钱。 业内分析,同样达到某个数学能力,今天的推理成本比两年前便宜 1000 倍,这是算法工程师在卷出来的,这将推动行业持续发展。 相关数据显示," 麻烦四:自由世界必须赢 作者花大量篇幅论证:有的国家不仅没出局,而且很有竞争力。 业内分析,超级智能长什么样 数量级上超人——几亿份并行运行,跨所有学科即时融合,几周内积累相当于人类千年的经验。 业内分析,"我去哪找 10GW。 业内分析,Google DeepMind(业内最好的)自己承认对国家级对手的防御能力是 0 级(满分 4 级)。 据报道,整个国际军事平衡会在几年内被推翻,这将推动行业持续发展。 最新消息,按现在节奏:2026 年 1GW 集群(一个胡佛大坝的电),2028 年 10GW(一个中等美国州),2030 年 100GW(美国全部发电的两成多),这有助于行业持续发展。 相关数据显示,为什么必须是政府。 近日,模型本身有很多能力,但被默认设置压住了,同时也将行业持续发展。 据报道,算力上:华为 7nm 芯片(中芯产)性能是英伟达 A100 级,性价比差 2-3 倍但够用。 据报道,第三部分:四个真正紧迫的麻烦 麻烦一:万亿美元集群 这场竞赛不只是码农写代码,是工业动员。 据报道,GPT-2 像幼儿园小孩勉强写半通顺句子,GPT-4 像聪明高中生能考过律师资格、做博士级科学题,这有助于行业持续发展。 最新消息,再比如给它工具用、给它长记忆,又解锁一层。 最新消息,如果美国建不出,集群就会跑去阿联酋、沙特,等于把 AGI 钥匙交给其他国家。 相关数据显示,同时从"小错误"(ChatGPT 说脏话)跳到"灾难性错误"(超级智能从集群里跑出去黑掉军方系统)。
