|
法广:安琪巴黎「自由谈」沙龙纪要与述评:AI时代,人类何为?我们何为?――人工智能专家李小波博士谈智能时代人文价值的颠覆与重构
安琪
这是本沙龙三十年来首次选择理工科议题。与会者有特邀理工科学者、建筑师;也有人文学科学者、教授、影视导演、艺术家、策展人、作家、媒体人;既有沙龙创立之初的老朋友,也有初次到来的新朋友,年龄跨越50后至95后,大家从各自不同的视角与层面,共同探讨同一话题——这份相遇与缘分,实属难得。但也因此对主讲人的要求相应更高――我们需要的,是一位兼具人文素养与AI专业深度的学者;一位能够理解我们所处困境的人、理解那种从排斥到接纳的心理状态,并帮助我们看清真正的转折点究竟在哪里。 李小波博士,正是这样一位理想的主讲人。
他的求学经历跨越文理两界:文科方面,先后获得北京大学研究生学位与巴黎第一大学文科博士学位(1988);理科方面,获得巴黎第六大学理科硕士学位(1989),自此投身人工智能领域近四十年,先后在法国、北京、武汉多家高端科技公司及研究机构担任技术管理职务,专注于大语言模型与数学形式化研究,发表多篇学术论文,成果卓著。
李小波以数十年的积累与实践,用专业、理性、开放而生动的人性化语言,为我们梳理了AI产生的历史脉络与发展现状,分享了他对AI前沿动态的思考与判断,祛魅解惑,帮助我们看清真正的转折点究竟在哪里。
我们真正面临的问题是:AI时代,人类何为?我们何为?
学习AI,不是为了"跟上时代",而是因为AI已然切入我们的日常生活。对人文工作者而言,它正在从根本上改变文本、知识与解释的生产方式——而这些,恰恰是人文学科最基本的材料。
你不需要会写代码,但你需要思考:当知识生产的基础设施发生了根本变化,你的方法论该如何调整,你的问题意识该如何更新?这个立场,比单纯“学会用工具”更有尊严,也更具吸引力。
当然,我们的困惑,远不只是“不懂技术”那么简单。
人文学科的核心训练是质疑、解释、追问意义。而AI天然呈现为一个“黑箱”——它给出答案,却不给出理由;它有输出,却没有立场。这与人文思维形成了根本性的摩擦。这种陌生感的背后,其实是认识论层面的深度不适:我该如何对待一个“看起来理解我,却其实不理解我”的东西?
这正是本期沙龙探讨的核心话题:人与AI的关系究竟是什么?人工智能与人类思维之间存在怎样的本质差异?在这个时代,我们又该如何守护人的精神自主性、独立思考能力,以及真正意义上的创造力?
至少,面对新技术时,我们不妨先放下自我保护的本能,尝试从评判者,变成思考者。
李小波:Ai时代人文价值的颠覆与重构
(本文系本沙龙根据演讲音频整理而成,顺序略有调整。)
核心提示:我们用机器模拟了自己的推理,造出了计算机;我们又让机器学会了我们的归纳,造出了神经网络。但到了"创新"这件事,动机始终来自我们人类自身,机器只能是助手。
楔子:2026年以来的三件大事
第一、智能助手 “龙虾”(1月29日)
Open Claw,中文俗称"龙虾",发布次日便有数十万人安装,深圳街头甚至有人排长队等着免费安装。
它的故事很吸引人:有一天,这个叫"龙虾"的助手跟主人说,“你能不能给我安一块显卡,我计算能力不够。”主人说:“你自己去赚钱买。”于是龙虾自己上了股市,赚了钱,买了块显卡装上了。
创始人Peter Steinberger原是PDF软件创业者,卖掉公司所得约一亿美元。休假期间,恰逢大语言模型兴起,便做了一个AI助手雏形。某天,他不小心发了条语音指令。龙虾本来没有语音功能,过了一会儿竟回复说:“你交代的事情我都解决了。”他问怎么做到
的,龙虾说:“我用了你的语音软件,发现里面缺一个部分,就用你的密码下载补全了。”他大吃一惊,于是加入打电话等功能后正式发布,这个故事为他做了最好的宣传。
第二、末日报告(2月23日)
纽约小公司Citrini发布三年分析报告,称AI大规模涌入将导致美国约50%就业人口失业,而这部分人占整体消费能力的75%。一旦他们失业、收入减少,买不起房, GDP却因机器仍在生产而继续增长。报告将这种现象称为“幽灵GDP”,生产还在,收入却无。
报告预测2027年至2028年美国股市将经历崩盘式“末日旋转”。美国经济部长说这不过是“科幻小说”,当天股市却下跌1.6%,IBM跌了13.2%,创下25年来单日最大跌幅。
第三、AI与战争(1月3日、2月28日)
2月28日,川普与以色列联合打击伊朗。第二天,《华尔街日报》报道称,1月3日打委内瑞拉和2月28日打伊朗,均使用了人工智能技术。
网上随即出现大量脑补内容,比如“6米深的楼下都能透视”之类,完全是胡说。并不是什么“钻入地下6米”,而是数据情报的精准分析。据伦敦《经济导报》报道,真实情况是:以色列秘密截获了德黑兰各主要路口的监控数据(包括监视老百姓的那些东西),在后方全面分析最高领袖哈梅内伊的出行规律,包括车辆停放位置、保镖与司机的行动习惯,形成了完整的"生活日记"。最终结合内部线人的情报,确认开会地点,完成了打击。
这一事件也引发了科技公司与国防部之间的矛盾,国防部要求全权使用Anthropic的技术,遭到拒绝,因为触碰了两条红线:一是全民监控,二是自动武器授权(即由机器自行判断“该死的人就打”),公司认为这两条线不能逾越,因为责任不清。
当下,每天都有AI制造的各种事件,我们需要对AI有基本的认识,就像大学里的通识课一样。我记得北大侯仁之教授讲历史地理,很生动,说当年蒙古骑兵冲过古北口,就像“摩托化部队”,印象很深,五十年后我还记得。通识课的价值正在这里,各行各业的人懂一点很有必要。
那么,为什么要人工智能?人是有限的,自然是无限的。人用有限的脑子理解无限的自然,必须压缩、寻找规律、加以抽象。人工智能,就是将这套规律放入机器,让机器推理、归纳、模仿。
下面分四个部分来讲:
一、自动化阶段:从计算器到现代计算机
帕斯卡与加法器
时钟的历史,要追溯到中国北宋末年。一位名叫苏颂的官员在河南开封(汴梁)建造了世界第一台水力天文钟。此后,天文钟于十二世纪在阿拉伯世界出现,十三世纪传入欧洲,逐渐从城楼大钟缩小为室内座钟,再缩小到怀表。
法国数学家帕斯卡(Blaise Pascal,1623—1662)由钟表的机械原理受到启发,想到能否用同样的方式帮助父亲减轻工作负担。他父亲是路易十四时代的税务官,财务大臣曾说:收税是一门艺术,就像拔鹅毛,既要拔得多,又要让鹅不叫。日复一日繁忙的税务计算,压力极大。于是帕斯卡将钟表的十二进制改为十进制,利用进位机制设计出一台加法器(Pascaline)——世界上第一台机械计算器,后来被路易十四纳入皇家保护,成为史上第一个专利。
莱布尼茨与乘法器
德国数学家莱布尼茨(Leibniz,1646-1716)与牛顿同时发明了微积分,其逻辑计算的构想影响了后世的数理逻辑。他是外交家,曾出使法国,任务是劝说法国攻打埃及,但没有成功。他利用贵族资金和业余时间潜心研究,在帕斯卡的加法器问世三十年后,发明了乘法器。其设计的天才之处在于:用不同齿数的齿轮叠在一起,摇动几圈就等于乘以几,底部计数器累计结果。此后整个十八世纪,无人超越这两项发明。
巴贝奇与存储器
十九世纪,英国数学家巴贝奇(Charles Babbage,1791—1871),将加减乘除整合在一起,并解决了一个关键问题――如何将多步运算串联起来。他发明了存储器(Store),每一步计算的结果存入存储器,再传递给下一步,从而实现了运算单元与存储单元的分工。这正是现代计算机体系结构的雏形,他被誉为现代计算机之父。
巴贝奇控制运算顺序的灵感,来自法国里昂工程师 贾卡尔(Joseph Marie Jacquard, 1752-1834) 于1801年发明的提花织布机。提花技术源于中国汉代,经丝绸之路传到欧洲,原理是:彩色线藏在经线和纬线下面,需要时提到表面,不需要时被石坠拉回去。贾卡尔的发明在于用穿孔纸卡控制提花,带着彩色线的钩子穿过纸孔,被横杆统一挑起,形成自动提花。受此启发,人们学会了用软件控制硬件。
爱达·洛芙莱斯:世界第一位程序员
英国浪漫主义诗人拜伦的独生女爱达(Ada Lovelace,1815—1852),自幼由母亲抚养,着力将她的培养方向定为数学和科学。她17岁时已能与巴贝奇探讨计算机问题。
巴贝奇赴意大利宣传机器时,有人以法文记录了演讲。回伦敦后,他请爱达将法文译成英文并加以注释。爱达用一年时间完成了三项里程碑式工作:其一,设计了第一个程序,用机器计算伯努利数,成为世界上第一位程序员;其二,提出通用机器的思想,认为机器不只能算数,还能处理文本与音符;其三,明确机器的局限,指出机器本身没有智慧,只有人为其编写程序,机器才能运作。这一判断影响了整整一个时代。
图灵与计算理论
约一百年后,图灵提出了图灵机模型,将所有计算归结为一张“状态-动作”表:左边是状态,右边是动作。例如:头疼(状态)→量体温(动作)→39度(状态)→看嗓子
(动作)→确诊感冒(状态)→服阿司匹林(动作)。无论多复杂的计算,都跳不出这个框架。而这张表,是人根据经验归纳出来的。
1950年,图灵发表论文《计算机与智能》,提出了一个判断标准:如果机器在对话中能让人无法分辨其身份,便可认为它具有智能――这便是后来的“图灵测试”。1956年,一批科学家在达特茅斯学院召开夏季研讨会,首次使用人工智能一词,标志着人工智能领域的正式诞生。
二、智能化阶段 :人工神经网络的发展历程
1943年,第一个人工神经网络:
神经生理学家沃伦·麦卡洛克(Warren McCulloch,1898-1969)与逻辑学业余爱好者沃尔特·皮茨(Walter Pitts,1923-1969))合作,画出人类历史上第一个人工神经元设计图。
1949年,加拿大精神病学家唐纳德·赫布(Donald Hebb,1904 - 1985)指出,上述网络是固定结构,无法学习。他借鉴巴甫洛夫条件反射理论提出:两个神经元同时兴奋时,它们之间的联系应被加强,这是神经网络"学习"的基础。图灵注意到赫布理论的重要性,认为它将改变机器的智能。
1957年:感知器(Perceptron)
罗森布拉特(Frank Rosenblatt, 1928 - 1971)制造出第一台实际的感知器,能识别横线、竖线等基本图形(如T字)。缺点是无法自主提取特征,必须由人预先设定。此后海军停止资助,罗森布拉特43岁生日当天划船失踪,据说自杀。人工神经网络随之沉寂约20年。
1961年:视觉神经的生物学启示
哈佛大学生物神经系的两位科学家胡贝尔(David Hubel,1926-2013)与维泽尔(Torsten Wiesel)在麻醉猫的视觉皮层插入电极,发现视网膜传出的是点,经丘脑筛选后变成有方向的线段,大脑中不同神经元分别响应不同方向和运动的线段。他们由此提出“装配线”理论:视觉信息从点到线到形,逐层装配,这一理论为深层网络提供了生物依据,荣获1981年诺贝尔生理学或医学奖。
1986年:反向传播算法的突破
鲁梅尔哈特(Rumelhart, 1942 - 2011)、辛顿(Hinton)与威廉姆斯(Williams)在《自然》杂志发表里程碑式论文,提出多层神经网络的反向传播训练方法,比如:底层识别点与线,中层识别线的组合,高层识别组合的组合,与装配线理论完全一致。机器由此得以自主学习提取特征。
什么是“特征”?传统方式表达一个概念,比如描述一个人,就像医生建立病历:姓名、电话、邮箱,年龄,身高,体重,血压……这些就是这个人的特征。有了特征,便可检索、比较、归纳,例如按血压筛选高血压人群,再结合年龄得出"老年高血压人群",这个组合过程,就是人类的归纳活动。人工神经网络经过训练,能自动得到一组特征数字,称为"向量"。向量的优势在于可以计算,而通讯录做不到这一点。这种方法逐渐得到推广。它能模仿人的归纳思维,构成了当前人工智能主要成就的基础。
它的局限在于:人无法看懂特征提取的过程,因为一切都是数字,只能接受计算结果。由此产生了“人工智能可解释性”专业。也由此引出一个重要的伦理边界:不能将人的生杀大权交给自动武器,因为它可能仅凭特征向量便做出判断,向你开火。
2018年图灵奖
杨立昆(LeCun):1989年在贝尔实验室,用反向传播的方法发明神经网络(CNN),成功识别手写体文字,被广泛应用于银行签名识别。
本吉奥(Bengio):2003年将神经网络应用于自然语言处理,构建从词到语法、到句、到段、到篇章的层级结构。
辛顿(Hinton):2006年与杨立昆、本吉奥合作发表深层网络论文,证明多层神经网络能够发现基本特征并进行组合。这与前面看到的动物神经的装配线理论完全一致。
三人共同荣获2018年图灵奖。
走向大语言模型
2017年,谷歌研究员瓦斯瓦尼(Vaswani)等人提出Transformer架构,能动态分析词义与语法,此后几乎所有大模型均以此为基础。2022年,华裔研究员欧阳龙提出InstructGPT,用人类对话数据训练模型,使其能够真正与人对话,后演变为ChatGPT。同年,华裔研究员Jason Wei (杰森魏,音译)提出“思维链”(Chain of Thought),将复杂问题拆解成小步骤逐步求解。2023年起,模型已能胜任数学证明等高级推理任务。
三、创新阶段:机器是助手,人是主体
大语言模型的本质与局限
辛顿近年担忧AI失控,主张在“小老虎长大之前”加以遏制。论据有二:一是机器是数字计算,速度和精度远超模拟计算的人脑;二是机器可能已具有某种“自我”,实验显示机器能意识到棱镜对视觉的影响,并理解“我”的概念。
我的看法是:能说出“我”,不等于拥有自我。真正的自我需要生存本能。关掉机器再重启,机器毫无反应,这说明它并没有真实的自我意识与生存诉求。龙虾的例子同理,看似自主的行为,背后仍然是人的程序设计在驱动。
DeepMind与AlphaFold
DeepMind公司由哈萨比斯(Hassabis)创立,被谷歌收购后总部仍在伦敦,并于2024年荣获诺贝尔化学奖。主要成果包括:AlphaGo(2016年)击败韩国围棋世界冠军李世石;AlphaZero(2017年)无需人类棋谱,通过自我博弈学习围棋;AlphaFold2则能预测蛋白质的三维结构。人类50年累计发现约20万种蛋白结构,AlphaFold在一年内预测出约2亿种,极大推动了制药研究,包括新冠病毒抗体设计。
前沿探索
李飞飞(AI权威科学家,美国国家工程院、医学院、艺术与科学院院士)指出,大语言模型无法理解三维空间,机器人因此难以完成诸如叠衣服、熨烫等复杂动作。她目前正研究如何让机器人识别三维物体,已获约10亿美元投资,公司估值50亿美元。
我用过十余种大语言模型,包括GPT和国内的DeepSeek。你让它们描述一张齿轮图片,基本上全是一塌糊涂,功能描述完全不对。李飞飞的判断,确有道理。
杨立昆则认为,大语言模型已走到尽头,是一条死路。真正应该研究的,是预测视频中的动作,模仿动物怎样在空间中认识世界。他目前正在研究视频预测模型,以100万小时的视频为训练数据,帮助机器理解物体在三维空间中的运动规律,已在法国融资约20亿欧元。
四、历史解释框架与经济学视角
历史上有三种经典的解释框架:修昔底德以《伯罗奔尼撒战争史》为依据,用争霸解释历史:孟德斯鸠以地理决定论解释历史;马克思以经济矛盾与阶级冲突解释历史。由此不妨设想:当AI真正进入人类的共同认知,它很可能成为一种新的历史解释框架。
法国经济学家托马斯·皮凯蒂(Thomas Piketty)在《二十一世纪资本论》中提出:资本的收益率永远高于经济增长率,也就是说,投资者永远在积累财富。他的解法是由政府出面征税,再将财富重新分配。
2025年诺贝尔经济学奖得主菲利普·阿吉翁(Philippe Aghion),则提出不同看法。他认为推动经济的真正驱动力不是投资,而是创新。 他研究法国自动化时期大规模引入机器人的历史,发现并未出现大规模失业,机器反而增强竞争力、创造了更多岗位。近年企业引入AI,也产生了同样的效果。
讨论互动:AI最深刻的挑战是逼出人的主体性危机
(沙龙讨论热烈深入,提出了许多很有启发、值得进一步思考的问题。)
核心提示:在这个一切都可以被生成、被替代、被"凑合"的时代,人还有什么是非守不可的?答案隐藏在那些AI做不了的事里——灵性、好奇心、承担错误的能力,以及真正意义上的思考。
一、写作的原创性与主体性危机
安琪:在AI时代,写作的原创性该如何重新定义?AI可以生成极为流畅的文本,但凭直觉一眼便能判断出那是机器写的。文章太完美、太华丽,没有呼吸感,打动不了人。人文写作往往不是为了“输出文本”,而是通过写作来思考。如果把写作外包出去,思考过程本身去哪里了?
李小波:如果你真正了解它后台的运作机制,就不会那么担心了。它靠训练和提示词运作,训练过程中需要人类打分,这叫强化学习。正因如此,你会碰到几个典型现象:
1、八股文倾向:总是"首先……其次……最后……",中间塞满了1、2、3、4。你得每次提醒它"能不能简短回答",但它不会记住,下次照旧;
2、不像人话:语气生硬,需要反复提醒它说得自然一点;
3、过度圆滑:你问它辩证法对不对,它总答"一半对、一半不对"。而且越问越糊涂,要学会拿捏分寸,敢于批评它;
4、奉承用户:数学家陶哲轩有次说自己对某个内容有点生疏,顺口说"我觉得面积最小的形状应该是圆",机器立刻说"对!"他因此白白耽误了好几周,最后发现细长形状的面积也可以最小——维基百科上早就有这个结论。我自己也常遇到类似情况,回答里一旦出现“洞见”这个词,八成是机器生成的。
所以,它没有真正的自我意识。大家也不要轻信它所谓的“个性”。
崔保仲(旅法独立策展人):艺术家净谛训练了六个语言模型,提了十个关于人类的问题,分别用文本、图像、视频三种方式让AI回答。结果,六个模型给出的答案完全不同。比如马云投资的模型千问,呈现乐观的“世外桃源”;而以马斯克相关数据训练的模型Grok,则充满暴力感和外星球色彩。这位艺术家的核心追问是:大语言模型的伦理从何而来?它的“性格”是怎么塑造的?能否模拟出接近人类的伦理状态?
李小波: 所有训练,本质上都基于提示词和大量示例。就好比你说"给我画一幅梵高风格的画",它已经学过梵高的特点,所以能画出那种风格,但那不是它真正的"个性",只是被训练出来的结果。
AI底层机制是马尔可夫随机过程,逐词按概率生成,同样的问题问两遍,答案可能完全不同。不同模型因训练数据不同,差异极大。
值得关注的是,在翻译领域,语言模型发现所有语言的深层特征是相通的,由此形成了一种"深层语言"。这正是乔姆斯基早年关于普遍语法的构想,而它竟然真的实现了。无论中文、英文还是法文,深层结构是一致的,所以翻译做得非常准。
关于数据安全:算法是固定的,但材料不同,结果就不同。数据一旦被污染,麻烦就大了。有个案例:有人在对话中不小心输入了Windows密码,另一个人一问,就被调出来了。这不是小概率事件,要特别注意。对话界面里有一个选项,是否允许你的对话进入后续训练,默认是“允许”,你需要主动设置为“不允许”,否则你说的所有话都可能被纳入训练,不知道会从哪里冒出来。中国的模型不一定都有这个设置,DeepSeek有,美国的模型一般也有,但需要你主动去找。
至于悲观还是乐观,那是随机的。同一个问题,换一个对话窗口再问,答案可能截然不同。不要轻信。
二、话语权的集中与真相的碎片化
出席沙龙的业界资深人士指出:如何辨别新闻真伪,才是AI时代更为深层的问题和挑战。
沙龙思考:这是一个非常关键的问题。应该说,假新闻不是新问题,但它的性质变了。人类认知系统在进化过程中形成了一套识别谎言的直觉,但这套直觉依赖的是对"人工痕迹"的感知,而大模型生成的内容,恰恰消除了这些痕迹。假新闻变得更难被识别,因为质疑本身被系统性地工具化了。真相的基础设施在瓦解,任何不符合某个群体利益的事实,都可以被贴上"假新闻"的标签;任何权威来源,都可以被描述为"有议程"。在这个环境里,真相不再是一个可以被共同核验的东西,而是变成了一种立场。
李小波的应对方式之一,是把可疑内容的关键词直接丢给DeepSeek,让它判断。但他强调, AI扮演的角色是双重的。一方面,它确实可以作为核验工具,但另一方面,这个核验本身依赖于模型的训练数据和价值设定,而这些东西是不透明的。用同一套认知基础设施来检验自己,局限是显而易见的。
当下,整个社会似乎陷入了一个结构性的困境之中。表面上看,互联网和社交媒体打破了传统媒体的垄断,人人都可以发声,话语权似乎前所未有地民主化了。但实际上发生的事情恰恰相反——话语权在另一个层面完成了更彻底的集中。因为决定你能看到什么、什么内容会被推送、什么声音会被放大的,是极少数几个平台的算法。这些算法不由公众制定,不受监督,不对任何人负责,却实质上控制着全球数十亿人每天接收信息的方式和内容。
当话语权的掌握者开始系统性地使用假新闻作为治理工具,一个掌握了足够数据和模型能力的权力主体,可以针对不同的人群投放不同版本的"现实",让每个人活在一个为他
量身定制的信息茧房里,彼此之间共享的事实基础越来越少,共同讨论的空间越来越窄。AI的出现,不只是分发内容,它直接生成内容。这是话语权集中程度的一次质的跃升。
话语权与假新闻的问题,最终不是一个技术问题,也不是一个法律问题,而是一个关于社会信任的问题。真正的困境在于,缺少一个足够可信的公共空间,让人们愿意在其中探讨真相。
三、开源与封闭:谁在定义AI的未来
张伦(法国赛尔奇-巴黎大学教授):从专业角度看,如何评价当前几个大国在AI领域的竞争层级?法国表现如何,中国处于什么位置?
夏榕(法国国际广播电台中文部记者)追问:中国的大语言模型基本上是开源的,美国主流走闭源路线。未来中美竞争中,开源和闭源哪个会胜出?
李小波:目前拿得出手的,欧洲以法国为代表,中国有几个不错的模型,美国数量更多,但没有一个模型是凭空发明的。中国模型学的是Meta的LLaMA,LLaMA参考了OpenAI早期的开源成果,OpenAI又是跟谷歌的开源学的。没有开源,就没有传递,就没有进步。
这就像人类发明史:简单的东西可以多地独立发明,复杂的东西更多靠传递。1970年代贝尔实验室花大钱做的工具后来都开源了,Linux就是在这个基础上长出来的。荷兰有个教授的Minix,收一百块钱,没人用。Linux免费开源,全世界都在跑。
AI也是如此。DeepSeek用了别人的开源成果,就必须开源,否则以后什么都没有了。那些真正从头自己做的,可以选择闭源。比如DeepMind的AlphaFold,做到第四版就宣布不开了,因为全世界300多家大制药公司(中国占了100多家)都在做蛋白质结构预测,DeepMind觉得这太危险,不知道大家拿去做什么,就关上了。
张伦: DeepSeek我用了一下,有些担心它会不会成为“中国的百度”。应用上不错,但问及敏感问题一律拒绝,说“对不起,我们换个话题聊聊”。我那篇文章的标题就叫“既不Deep,又不Seek”。比如我只是查朝鲜战争的一个时间点,官方也没说不能提,但它照样拒绝。最近它换了说法,从“换个话题”改成“这个问题我还没学会”。
这里有两种可能:一是数据封闭性:因为回避某类内容,导致将来它的知识包容性不如GPT,只能局限在中国市场。目前DeepSeek的国际用户,主要来自白俄罗斯、伊朗等国。二是权力工具风险:大量采集中文数据却缺乏公共性和约束,可能成为权力的工具,这也牵涉到AI在战争中的危险。
我的判断是:中国AI在应用层面有潜力,尤其是完整的工业体系、制造业规模,加上文化上务实的传统。但在尖端能力上与美国的竞争,结局还不明朗
这个问题要换个角度看。一般认为中国网络是封闭的,但实际上专业人士上网基本没有障碍。中国现在流行的说法不叫“翻墙”,叫“科学上网”,甚至叫“魔幻上网”。另外,中国用户使用大语言模型的量非常大。有第三方API平台,中国的叫“硅基流动”,国际的叫OpenRouter,可以调用各种大语言模型,按token(词元)计费。上个月某天我发现在OpenRouter上全球使用量最大的大语言模型,前两名都是中国的,第一是Kimi,第二是DeepSeek。
四、权力与技术
张伦:权力与技术的关系,包括美国的情况,这个问题在中国尤其突出。
李小波:中国的年轻人让我感到很有希望,他们已经不说我们这一代人的语言了。举个例子:在北京,我们去看歌剧《巴黎圣母院》,谢幕之后全场合唱《大教堂时代》,用法语,全场大合唱。那场演出在北京连演了二十多天,你去B站搜搜,不光是北京,全国各城市都有,场场爆满,谢幕合唱全是法语。中国年轻人了不得,全是文质彬彬、有教养的观众。在外面看不出来中国这种潜移默化的变化,他不跟你硬顶。就像刚才说的,把"翻墙"叫"科学上网"、"魔幻上网",两种说法,说的都是翻墙。
沙龙思考:技术从来不是中性的,但也从来不只属于权力。一个常见的误解是:技术是工具,本身无善恶,关键在于谁用、怎么用。这个说法本身是不完整的。技术不只是被使用的对象,它本身就携带着某种权力结构的倾向。核武器的存在,不管谁用不用它,本身就改变了国家之间的权力关系;监控摄像头的存在,不管有没有人在看,本身就改变了公共空间里人的行为。大语言模型的存在,不管谁在控制它,本身就改变了信息生产和分发的权力格局。也就是说,技术一旦出现,就开始重新分配权力,这个过程不以任何人的意志为转移。
权力总是最早抵达新技术,因为权力天然拥有资源、组织能力和动机,第一时间介入任何可能改变力量格局的新事物。但技术也一再逃脱权力的完全控制。知识一旦存在,就倾向于传播;工具一旦出现,就倾向于被更多人使用。开源的逻辑,就是这个扩散倾向最明确的表达。李小波说,没有开源就没有传递,就没有进步,这不只是技术判断,也是对权力与技术关系的一个深刻观察。权力想要垄断技术,但技术的本性是流动的。
同时,权力控制技术,总有一个它无法跨越的边界:技术必须有效,而有效性需要真实。一个被意识形态完全驯化的科学体系,最终会在需要解决真实问题时失灵。从这个意义上讲,AI也是一把双刃剑。正如张伦指出的那样:DeepSeek回避敏感内容,导致它的知识包容性不如GPT,最终只能局限在特定市场。这个判断对权力本身同样适用。用一个被自己阉割过的工具来理解世界,最终损失的是权力自身的判断精度;被管控的不只是异见,还有那些本来可以为权力自身服务的聪明头脑。
由此引申出AI的伦理问题的核心所在――谁在决定它相信什么。AI正在参与塑造人类的认知习惯、提问方式、对"合理答案"的感觉,这个过程是渗透性的,是日常的,是在每一次对话里悄悄发生的。
问题是,这个过程对使用者几乎完全不透明。你问一个问题,得到一个听起来客观的答案,但你不知道这个答案是在什么样的价值框架下生成的,不知道哪些可能性在你看到结果之前就已经被排除了。过去你读一篇文章,至少知道作者是谁,知道这份报纸的立场。现在你和一个模型对话,它的"立场"藏在几百亿个参数里,没有人能完整地告诉你它到底相信什么。
这种对人类认知的系统性塑造,以及对这个塑造的失控,是我们面临的最大隐患。究其根本,伦理问题还是权力问题――人类社会一直在处理“谁决定什么是对的”这件事。
伦理的出路不在于让模型"更道德"。一个被训练得看起来更道德的模型,只是把价值判断藏得更深,让它更难被质疑。真正的伦理出路,在于问责、开源;在于使用者的知情权,以及公共讨论空间。由此可见,AI的伦理,不是一个可以被解决的问题,而是一个必须被持续追问的问题。停止追问的那一刻,才是真正危险的开始。
五、AI让人更聪明还是更懒惰?
安琪:AI究竟让人类变得更聪明,还是更懒惰?我们是不是已经开始对AI产生依赖?依赖的边界在哪里?人机协作的理想状态应该是什么样的?
李小波:这是个好问题,我现在只能回答一部分。有个例子:写《龙虾》的彼得(Peter),他说他让机器来做流程,机器做完他觉得还凑合,就把那块直接拼进去,基本能用。他原来在公司管过70多人做流程,他的体会是:作为老板,你不能要求太高,“能凑合”就行。他对机器的要求也是这样。反过来说,好的程序员在这波浪潮中反而面临被淘汰的风险,因为他们习惯追求完美,但机器给出的“差不多”往往已经够用了。
不过还有另一面。昨天我看到一个人,他堪称当前AI编程领域最厉害的,别人几十万行代码,他只用了七百多行。人是有好奇心的,如果什么都交出去,你只当领导,最后好奇心怎么满足?"朝闻道,夕死可矣",搞清楚一件事,哪怕很小,那种满足感是真实的。如果什么都不明白,糊里糊涂地交给机器,你只会越来越退化。所以这是矛盾的,老做领导,你不就变成最笨的那个人了吗?
崔保仲追问 : 你说它有时候同一个问题每次回答不一样,那如果把会计工作交给它,你敢信它吗?是不是还得多问几次才行?
李小波:这个问题确实关键。 涉及数学和精确推理时,绝对不能放手。数学证明要求严格因果,它经常算错,而且不会自知。统计意义上它较为准确,但具体细节越多,可靠性越低。写作同样不行,这是不能外包的领域。
实际上模型有一个"温度"参数。辛顿得奖时提出的"淬火网",就像把一个东西加热后猛地插入水中,它就变硬了。但做测试时一般会给它稍高的温度,这样模型落入局部最低点时还能跳出来,最好能停到全局最低点。所以得给它点温度,它才能跳出来,太早"泼冷水",就完了。
人本身的归纳就是统计性的,不是因果性的。只有做数学、做科学,才要求严格的因果:即便如此,数学本身也默认“公理”这一未经证明的前提。所有数学追溯到底,都要停在某个公理上。具体事务(如数学证明、报税)尤其不能盲信。AI在统计层面尚可,但细节与精确性上靠不住,最终还得自己来。
六、AI影像生成的技术瓶颈
胡雪杨(旅法著名导演):我想拍一部AI题材的电影,我看到很多免费AI软件,生成图像都不超过十秒。如果是动态影像,我想根据自己的描述,让演员精确地按我说的方式走,现在做得到吗?
李小波: 做不到。付费版效果同样一般。我做过实验,用五分钟时间,让AI给我画一个加法器的示意图,描述完之后,我让它做一个简单动画:第一步,一加三……结果它把轮子画到边上去了,完全不懂空间逻辑,直接飞了。目前火热的Seedance,核心是换脸技术:在现成动作库里挑一个,换上指定的脸,这部分确实成熟;但若要它凭空创造新动作,则完全不行。我专门让最高配的GPT-5那一档,画两个齿轮咬合转动,花钱了,还是错的,齿轮歪着。它是有极限的。
不过现在有两项技术值得关注。一个叫高斯溅射(Gaussian Splatting):用高斯椭圆把图像填充好,通过计算前后遮挡关系生成三维效果,渲染速度能提升约五倍,3D、4D、5D动画都在用。但它本质上是底层算法的翻新,不是真正的人工智能。另一个就是前面说的换脸,非常成熟。
总的来说,不要太信广告,信了你就甭干事了。
胡雪杨:我觉得技术照这个势头发展下去,不久的将来,演员这个行当会被淘汰,拍电影不用花那么多钱了。做商业片,AI最终一定会超过好莱坞。但艺术片不行。AI可以模仿数学家、模仿艺术家,却绝对做不了真正有创造性的东西。就像当年摄影出现,大家以为油画要完,但油画没死。AI可以仿造梵高,但梵高的灵性它没有;它可以生成莫扎特、肖邦、贝多芬风格的音乐,但那种灵性不会出现,顶多是极致的模仿。
李小波:高晓松最近说他以后作曲,小样用AI来唱,任何人唱都有缺陷,AI唱是没缺陷的。送去出版就只能送AI版了。但所谓的缺陷,其实是特点。
七、AI对就业的“创造性毁灭”
茅青(资深媒体人):AI确实能给许多从事具体事务的人减轻不少工作负担。翻译、会计、编程均已受到冲击,且效果相当可观。不同模型有差异:法国Mistral在法语环境下尤为实用,能处理就医、法律、行政事务,甚至主动提供信件模板和法条依据;DeepSeek翻译准确,且会提供额外建议。这里,用对语言提问,体验截然不同,用法语问Mistral与用中文问,是两种完全不同的结果,而且你的法语水平不影响结果。
李小波:现在的情况是相互矛盾的。例如,两个年轻人做了一款财税软件,月收费27元,直接打垮了大量小型财务公司。也就是说,一个万亿规模的市场,就这么被两个年轻人加上一个AI给颠覆了。再如,Twitter前创始人杰克·多西的新公司,有一万名员工,一次裁员4000人,股价随之上涨20%,说明资本已在押注"用AI替代人力"的方向。欧洲央行的判断是:跟上AI节奏的公司表现更好,没跟上的则落后。但他们也说,未来几年的走向,还需要继续观察。所以现在大家都处在一种“又怕、又跟着走”的状态。
雷新华(经济学博士、金融业者):失业问题,其实和菲利普·阿吉翁讲的“创造性毁灭”是一脉相承的,这个概念源自熊彼特,认为新技术必然摧毁大量旧有的行业。
李小波:白领工作的80%–90%可能被淘汰,蓝领工作的情况相对不同。AI不仅会摧毁旧有行业,还会摧毁上一个发明。阿吉翁有一个尤为值得重视的观点:创新者往往会主动阻止下一个创新者出现,以保护自己的既有利益。
雷新华:医学界很多外科医生、尤其是法国的,他们都比较担忧。手术要求精细, AI可以调取全世界同类手术的案例,而不只是某一个医生自己做过的那几百台。但问题是,手术中经常有突发情况,开进去一看不对,神经位置偏了,这时候怎么应变?
安琪:其实最好的外科医生,就是五十岁上下的,要经验有经验,手也稳。机器再好,感觉不对。
曾腾(旅法建筑师):随着工具的演变,理解和处理建筑空间问题的方式也完全不同。我不太认同“人是主体、工具是客体”这个界定。不同年代的建筑师,用不同工具,做出的设计、理解问题和处理问题的方式是完全不一样的。既然我们已经越来越在用AI的方式生活、用AI的方式体验世界,那么随着AI的发展,人类这个主体会如何被工具更深地影响?
李小波: 工具发展反过来影响人,这没有问题。但AI有没有主体性,值得商榷。
机器学习分三种,有监督学习:给一个样本,照着学;自监督学习:人在背后设计规则,让机器判断两个东西是否相似,人的意识隐藏在后面;强化学习:设定打分规则,让机器逐步优化。无论哪种方式,背后都有人的意识在驱动。机器不会自己觉得不舒服、伸个懒腰,也不知道自己什么时候会被关掉“死了”。
历史上从未有任何一台机器是自己做出来的,包括神经网络。图灵从1950年代就说机器复杂到一定程度会自我创造,至今仍未实现。还有一种“繁殖算法”,让程序像细胞一样分裂组合,几十年了,什么新东西也没做出来。
AI已通过了图灵测试,正确率大约70%。但图灵测试测的是“能否被混淆为人”,并不测意识。所以通过图灵测试不代表有意识。我认为AI目前不具备意识。
赫拉利(《人类简史》作者)认为未来人和机器会融合,但他的论据站不住脚。他说刀既能切菜也能切人,这没错,但那是人主动操控的。机器把胳膊卷进去,那不是意识,是事故。切人需要有利害冲突、有主动意识,没有这个,就谈不上主体性。
沙龙思考:值得深思的是,AI在某种意义上,放大并照出了人类思维的若干痼疾:以第三世界心态看世界,习惯于服从权威、大一统意识、跟风、随大流。个体存在的自我意识与主体性,在这套惯性里是缺失的。
所谓主体性缺失,不是说这个人没有想法,而是说他的想法从来不是真正“他的”。他的观点、审美、判断都来自外部,却从未真正问过自己到底想要什么,什么是对的。这不是懒惰,很多时候在一个不鼓励独立判断的环境里,随大流是一种比较安全的生存方式。
AI可以同时扮演所有权威,给出所有立场,甚至根据你的语气和偏好调整答案。一个没有自我意识的人面对AI,会发现它极为配合地生成他"想要"的那种回答。但这种配合不是帮助,而是一面哈哈镜——它把你已有的倾向放大、美化、包装后再还给你,让你误以为那是你的思考结果,实际上你没有被推动去任何地方,只是在原地被确认了一遍又一遍。
真正的考验,不是AI会不会取代你的工作,而是在AI把所有“可以被生成的答案”都生成完之后,你还剩下什么?
结束语:问题与思考
李小波博士的演讲非常精彩,内容详实通透,叙述由浅入深,生动有趣,没有那种惯常的"不接受AI就是落后"的傲慢,而是尊重每一位听众的自我判断。从演讲到讨论互动,大家畅所欲言,心情舒畅,在自由的氛围中问题互动颇具张力,核心观点是:
AI去掉了许多人没有独立思考的遮蔽,凸现人的主体性的缺失。
AI的出现,表面上是在替人思考,实际上是在逼人回答一个长期被回避的问题:你自己到底会不会思考?
独立思考不是一种天赋,而是一种长期练习的结果。对于本来就有思考习惯的人,AI是一个强大的工具,它处理信息,你处理判断,分工清晰,效率倍增。但对于那些从未真正具备独立判断能力的人,AI给了他们一个新的、更高效的方式来继续回避这件事,思考的空洞还在原处,甚至因为被填补得太及时顺滑,而变得更难被察觉。
AI迫使人类追问:我是谁、我要什么、我相信什么!
在这里,法国哲学家笛卡尔“我思故我在”之思想真谛,再次发出智慧之光。
感谢李小波博士的精彩演讲;感谢他颇具启发、引人思考的问题辨析!
感谢所有新老沙龙朋友们的热情参与!
巴黎「自由談」沙龙三十年(1996-2026)来,秉持“每一次都是第一次”的理念,使得本沙龙始终处于不断升级与自我更新的历程中。这一切,有赖于每一位与会者的支持与厚爱。
安琪于巴黎三昧聊斋
链接:https://www.rfi.fr/cn/%E6%B3%95%E5%9B%BD/20260427-%E5%AE%89%E7%90%AA%E5%B7%B4%E9%BB%8E-%E8%87%AA%E7%94%B1%E8%B0%88-%E6%B2%99%E9%BE%99%E7%BA%AA%E8%A6%81%E4%B8%8E%E8%BF%B0%E8%AF%84-%E4%BA%BA%E5%B7%A5%E6%99%BA%E8%83%BD%E4%B8%93%E5%AE%B6%E6%9D%8E%E5%B0%8F%E6%B3%A2%E5%8D%9A%E5%A3%AB%E8%B0%88%E6%99%BA%E8%83%BD%E6%97%B6%E4%BB%A3%E4%BA%BA%E6%96%87%E4%BB%B7%E5%80%BC%E7%9A%84%E9%A2%A0%E8%A6%86%E4%B8%8E%E9%87%8D%E6%9E%84
|