
编者按:AI浪潮席卷全球,资本狂热与技术隐忧正在上演冰与火之歌。当谷歌掌门人皮查伊亲自敲响警钟,当2万亿美元热钱在算法间奔涌,我们是否正站在科技泡沫破裂的悬崖边缘?本文深度解码硅谷巨头的清醒预警,揭开生成式AI华丽外衣下的认知陷阱。从资本狂欢到技术幻灭,从算法幻觉到监管迷思,这场关乎人类未来的科技博弈中,每个参与者都需保持冷思考。以下是全文编译:
谷歌及其母公司Alphabet的CEO发出严厉警告,指出用户对人工智能的"盲目"信任潜藏危机,同时警示围绕该技术形成的金融"泡沫"一旦破裂可能引发的连锁反应。
在接受BBC专访时,桑达尔·皮查伊直言AI"容易出错",反对将聊天机器人作为唯一研究工具。他向媒体强调:"人们必须学会善用这些工具的特长,而非全盘接受它们的所有输出。"
皮查伊进一步指出当前AI投资狂潮中的"非理性现象",坦言"若市场出现回调,没有任何公司能够独善其身"。
此番表态正值谷歌DeepMind新一代AI系统Gemini 3.0即将发布之际,连最狂热的AI投资者与先驱者都开始担忧:必须建立防护机制防止技术失控。
在谷歌加州总部,皮查伊将AI投资激增称为"非凡时刻"。
科技巨头对AI的年投入预估已达4000亿美元,有预测显示到2030年可能飙升至2万亿美元。虽然AI概念股推动股市近期上涨,但这种缺乏实质回报的投机性投入,正将价值浓缩在少数看涨的科技股中,令人担忧市场修正可能对整体经济造成冲击。
皮查伊关于AI泡沫"破裂"的言论与OpenAI CEO萨姆·奥尔特曼不谋而合。后者八月向CNBC表示"投资者整体对AI过度兴奋",并将当前形势比作1990年代末的互联网泡沫。
"大量资金因非纯粹财务目的涌入AI领域,这正在推高估值泡沫,"《繁荣与萧条:全球金融泡沫史》合著者威廉·奎恩指出。他告诉《新闻周刊》,若泡沫破裂影响将类似互联网危机,主要冲击科技公司而非像2008年次贷危机那样广泛蔓延。
关于现有AI模型的准确性,皮查伊指出技术发展速度与安全防护措施之间存在脱节。BBC十月牵头的研究显示,45%的AI生成答案存在至少一处严重问题。
牛津大学技术与监管教授桑德拉·瓦赫特强调:"生成式AI极易出现幻觉,绝不能盲目采信。"她担忧最危险的并非明显错误,而是那些细微到令人难以察觉的偏差。
谷歌前高级工程师弗朗索瓦·乔莱认为,皮查伊在Gemini 3.0发布前的表态彰显了"行业成熟度":"将大语言模型定位为需要人工验证的推理引擎,才是对技术本质的诚实认知。"
谷歌CEO皮查伊:"我们为提升信息准确性付出巨大努力,但现有顶尖AI技术仍存在出错可能。"
创业家杨安泽:"当前估值充满前瞻性与投机性,重大修正不足为奇。但我坚信AI将重塑众多行业。"
牛津教授瓦赫特:"当人们向LLM提问未知领域时,如何甄别错误?想象这些系统应用于金融、医疗等关键领域的后果。"
数据伦理教授米特尔施塔特:"科技公司通过安全机制决定"正确"回答的同时,也在集中真理定义权——这种权力需要民主监督。"
AI研究员乔莱:"用户常因输出"听起来专业"而轻信结果,未意识到模型只是在重组网络数据。除非公众养成验证习惯,决策失误将持续发生。"
谷歌预计在未来数周发布Gemini 3.0。皮查伊十月曾表示新版AI将在2025年前问世,而 Polymarket 预测市场显示本周内发布的概率高达94%。此前该概率为69%,皮查伊曾在社交平台用两个"思考脸"表情回应这个预测。




