Beijing Spring 娆㈣繋鍏変复 鍖椾含涔嬫槬   蹇€熼€氶亾 鏈堝垔棣栭〉 - 銆婂寳浜箣鏄ャ€嬫湀鍒� - 璧勬枡鏂囬泦 - 鍖楁槬鏂伴椈涓績 - 璁㈤槄涓庢敮鎸� - 棣栭〉

 推荐新闻
涓夊ぇ鏂板洜绱狅紝缇庡湅濞佹嚲澶�.
楂樺皵娉帮細闃摥鍏堢敓
楂樺皵娉帮細鑻忕粛鏅哄厛鐢�
鈥滀箤鍏嬪叞閫昏緫鈥濆彲浠ヤ繚鍗�.
鑳″钩锛氫粠鍗曟瀬涓栫晫鍒板鏋�.
鍝堜經搴旇澶氭敹瀵屽瀛愬紵鍚�.
钄¤姊咃細鈥滃瑕佸搱缍埦锛�.
璁哥珷娑� 锛氳瑷€鐨勫叕姘戝強锟�.
缇庡湅闇告瑠绲傜祼 姘戜富涓荤京锟�.
鏋楀煿鐟烇細缇庡浗鐨勨€滄斂娌绘.
鑳″钩 | 绫冲灏煎厠锛氫汉路锟�.
瀵逛腑鍥界鎶€鐨勬垬浜夊浣曢€�.
閲嶈鏉庡織缁ワ紝閲嶄及姣涙辰涓�.
寰愯硜锛氣€滃弽鍙斥€� 鍒涗激璁帮拷.
涓€浣嶆祦浜℃媺鏂董鍔犳柉鐨勪腑.
閮戜箟 | 鍙瓊
鑹炬檽鏄庯細榛戞殫鏃朵唬鐨勬槦鐏�.
鑳″钩锛氫笁涓叏浼氬叕鎶ュ嚭鍙�
浜嗚В 鈥滃垎瑁傗€濈殑缇庡浗鐨勶拷.
绻佸崕娓愰€濓細鑵硅儗鍙楁晫鐨勪腑.
绋嬮搧鍐涳細鎬€蹇佃嫃缁嶆櫤澶
鍏皯鎶椾簤鐨勪笁澶ф垚鍔熻绱�
涓湅姘戦枔姝峰彶閬嬪嫊閬犺秴鍑�.
寰愬弸婕侊細鎴戝€戜笉蹇呯禃鏈�
寰愬弸婕侊細寰炵墰娲ュぇ瀛稿埌鍖�.
鍙扮仯澶ч伕锛岄渶瑕佺湅鐨勫咕鏈�.
鏄熺伀涓嶇唲锛氫腑鍥藉湴涓嬪彶瀛�.
浜庡缓宓橈細涓浗鏈潵杞瀷鐨�.
热点新闻
<> 鍙嶅埗鍏辫粛 鎴戝缓缃�7澶ф墦鎿婃鍣�
<> 鍗楅潪鍑虹幇鏂板啝鍙樺紓绋嬪害鏈€澶ф瘨鏍�
<> 寤虹珛閬撳痉璇勮鏈哄埗 鏂囪壓鐣岃澶ф竻娲�
<> 澶у崍妗堜簩瀹′粖鏃ュ鍒�
<> 娉曚笌婢抽娆℃帹鍑�2鍔�2鑱斿腑浼氳鏈哄埗
<> 鑿呬箟浼熷姩浣滆嚜鏁戜繚浣嶅紩鑷皯鍏氬ぇ鍦伴渿
<> 缇庡浗鎮祻5鐧句竾缇庡厓缂夋嬁涓浗姣掕穿
<> 鐛昏姳甯傛皯閬エ鎺с€屼簜鎷嬪瀮鍦俱€�
<> 棰勬枡鏄庡勾娓汉绉绘皯娼画澧�
<> 绱愯タ铇案涔呮敹钘忛娓姉鐖墿鍝�
  图片新闻


婢虫床澶ч€夛細鐜版€荤悊棰嗗宸ュ厷鎴愬姛杩炰换


鑾风姜鍓嶅搱浣涙暀鎺堣幏鑱樺寳浜竻鍗庤搴�


銆屽井闆诲奖銆嶅叕闁嬬瓥鍙嶄腑鍏卞畼鍝℃穿瀵�


涔犺繎骞�5鏈�7鏃ヨ嚦10鏃ヨ闂縿缃楁柉


绂忓窞姹借溅鎾炰汉 褰撳満璧颁簡涓夊洓涓�


鍝堥噷鐜嬪瓙甯屾湜涓庣帇瀹も€滃拰瑙b€�


鐗规湕鏅€滄壆鏁欑殗鈥� 缃戞皯鐑


涓浗涓庢娲插缓绔嬫洿绱у瘑鐨勬斂缁忓叧绯�


涓ぎ鎯呮姤灞€鍙戝竷涓枃瑙嗛鎷涘嫙涓叡瀹樺憳


缇庡浗鍔″嵖锛氫腑鍥藉笇鏈涗細鏅や笌鍟嗚


涓夊悕缁村惥灏斾汉鑾疯瀹夌疆鍒板姞鎷垮ぇ


姣涘瓱闈欒幏閲婂悗棣栧害鍏紑杩戝喌


宸濇櫘鐧炬棩鍩锋斂锛氬付渚嗘繁鍒昏畩闈╋紒


鐧借鐥呭コ瀛愭帶鐤嫍鑷寸梾涓婅閬噸鍒�

新闻首页 > 电脑网络

 

中国国产AI机器人管不住了?
日期:8/30/2024 来源:网络 作者:网络

先“诋毁”毛泽东、再侮辱中国人智商,中国国产AI机器人管不住了? 

2024年8月29日 09:22 




2015年3月12日,中国一个电子商务网站展示的智能手表宣传图片。

2015年3月12日,中国一个电子商务网站展示的智能手表宣传图片。 

华盛顿 —  

中国一款面向儿童的“智能”手表最近给出涉嫌侮辱中国人智商、诋毁中国“四大发明”的答案,引发中国网民讨伐。此前,中国一款AI学习机“创作”出一篇公然批评中共前领导人毛泽东的作文,引起轩然大波。尽管中国政府试图全方位对AI内容进行审查和监管,但分析认为,AI训练基于民间言论中的多种声音,即便是中国国产AI产品也难免与官方口径不一致。

儿童“智能”手表辱华? 中国AI监管疏失引热议

一名中国河南的家长8月22日反映,两年前买的一块“360儿童手表”在回答“中国人是世界上最聪明的人吗”的问题时,竟然给出基于人种长相的回答,并称中国人中“笨的”“是世界上最笨的”。

网上流传的手表使用视频显示,在被问及这一问题,手表发出的语音回答说:“以下内容来自360搜索”--“因为中国人小眼睛、小鼻子、小嘴、小眉毛、大脸,从外表上显得脑袋在所有人种里最大,其实中国聪明的人是有,但笨的我承认是世界最笨的。”

这款手表还公然“诋毁”中国古代四大发明的答案。手表给出的“智能”答案还质疑道:“什么四大发明,你看见了吗?历史是可以捏造的,而现在的手机、电脑、高楼大厦、公路等等所有高科技都是西方人发明的”。

一时间,360儿童手表搜索功能出现“不良答案”的消息登上中国社交媒体热搜。网名为“久久思尔”的微博用户评论道:“没想到连手表问答都这么离谱,这个问题要重视啊!小孩子什么都不懂很容易被带偏的……你们接入第三方数据都不审核吗”。

博主“京畿道小骂”说:“好可怕,是被外部渗透了把。”

博主“惊奇数码”说:“360能不能好好做产品,整天别做那么多营销了。”

8月22日,360集团创始人、董事长周鸿祎在社交媒体作出回应说,这款儿童手表给出离谱答案并不是基于严格意义的人工智能(AI),而是“而是通过抓取互联网公开网站上的信息来回答问题”。他说:“目前我们已经快速完成了整改,删除了上述所有有害信息,并正在将软件升级到人工智能版本。”

“奇虎360”(全称“三六零安全科技股份有限公司”)是中国大陆的一家以网络安全产品起家的的互联网公司。在人工智能概念的市场驱动下,360也开始进军AI电子消费品市场。

中国网络安全公司“奇虎360”2019年11月21日在北京举行的世界5G大会上展示5G数字安全和保护系统。

中国网络安全公司“奇虎360”2019年11月21日在北京举行的世界5G大会上展示5G数字安全和保护系统。 

虽然董事长周鸿祎撇清了涉事儿童手表与该公司AI技术的关联,但据网上官方资料显示,其出品的“M1”儿童智能手表能够进行“AI智能学习”、“AI定位”。今年7月,360公司高调宣称,推出“全球首款接入360智脑大模型的AI儿童手表”、“A9红衣版”。

中国智能产品AI“幻觉”现象层出不穷

360等科技企业在蹭AI热度、抢占生成式人工智能市场时,必须遵守中国当局对内容监管的束缚。但AI“失控”口出狂言,成为这些科技公司面临的一个难题。

以美国OpenAI出品的ChatGPT为代表的生成式人工智能工具已经面试,就遇到了所谓AI“幻觉”(hallucination)的难题。AI“幻觉”指的是AI问答工具常常在一些问题上信口开河,以貌似客观权威的文风给出具有误导性的答案,甚至是严重的不实信息。科技公司在测试和操作时难以控制。

计算机科学家将这一现象形容为“一本正经的胡说八道”。在回应中,周鸿祎也提到了AI“幻觉”。他说:“目前人工智能存在一个全世界公认的难题就是它会产生幻觉,也就是它有的时候会胡说八道。这是大模型本身固有的特性。” 他表示360一直在试图通过与搜索的内容做对比来减少“幻觉”、做好“知识对齐”。

科技博主、微软公司前公关事务主管罗伯特·斯科布尔(Robert Scoble)说,生成式人工智能质量已经有了极大的改善,但“偶尔仍然会出现‘幻觉’”。而中国当局为应对AI“胡言乱语”,必须在训练AI模型前就要对训练语料库(corpus)进行大清洗。

斯科布尔通过短信对美国之音说:“(中国)会受到某些内容的困扰,因此在训练前就要把这些内容删除,例如‘天安门’问题。”

中国被认为是在规范AI立法和建立行政规定方面走在各国前沿的国家。网信办等部门2023年7月已经通过管理办法,试图对生成式人工智能(generative AI)的信息舆论导向进行管制。

暂行办法规定,具有舆论属性或者社会动员能力的生成式人工智能服务商,必须开展安全评估,并对算法备案等级。

为了监管“深度伪造”内容,中国2023年1月开始实施的管理措施要求服务提供商对那些“可能导致公众混淆或者误认的”AI生成内容进行“显著标识”,以便用户可以识别哪些图像和影音是机器“创造”的产物、哪些是真人的创作。

国产学习机曾“诋毁”毛泽东

不过,即便中国对科技企业训练AI时的内容审查提出了很高的要求,但即使是基于经过“漂白”的语料库训练出的AI大语言模型,仍然让出现让当局甚为恼火的“反动”内容。

去年有中国网民在社交媒体爆料说,中国IT企业科大讯飞生产的儿童学习机中发现了有辱毛泽东的内容。

据报道,这款AI学习机“原创”了一篇作文,称毛泽东是“没有气量,不为大局着想的人”,并指出毛泽东应为“文化大革命”负责。文章说:“文革中一些随着毛主席打下这片江山的人,都被毛主席整得苦不堪言。”

有分析说,中国经过审查过的AI工具发表“历史虚无主义”言论,反映了中国“防火墙”内与历史和政治议题相关的内容,即便经过审查,还是留下了民间的不同声音,这些观点即使不像天安门事件、中国人权记录等敏感问题上那么出格,但也未必符合官方叙事的喜好。

研究中国审查制度的“中国数字时代”编辑刘力朋美国之音说: “监管对生成式人工智能看得非常、非常狠,但是,生成式人工智能很多时候也并不符合官方的叙事,它总有想不到的地方。”

他举例说:“如果用的是墙内‘红歌网’、‘毛左’网站上面(内容)训练出来的,其实上面的回答根本就跟官方不一致。那肯定会狂骂邓小平、否定所有所谓改革开放成果。这样它就会把跟官方叙事相比、错的离谱的答案给你。”

AI“幻觉”也是世界难题

英文媒体中最先对360儿童手表事件进行报道的中国传媒研究计划研究员亚历克斯·科尔维尔(Alex Colville)说:“人工智能的设计方式就导致完全消除这些‘幻觉’会很难,甚至很难预测什么会触发这些幻觉。”

他通过短信对美国之音说:“这可能会让北京感到沮丧,因为我们认为机器完全在我们的控制范围内。但当机器按照无法解读的一种自己的规则运行时,这就成了一个问题。”

AI“幻觉”事件,世界各地都时有有发生,有的还带来了深远的法律和政治后果。

例如,加拿大航空就发生过客服聊天机器人给出错误解答,被顾客告上法庭的事件

去年11月,一名急需奔丧的旅客在向加航咨询该公司“丧亲”优惠机票购买规定时被AI客服聊天机器人告知,可以先买普通机票、过后申请优惠。加航事后拒绝向这名旅客退还优惠票价差价,称造成顾客的误解是聊天机器人的失误,与加航无关。

法庭今年2月裁决加航败诉,要求其退还旅客差价。

华盛顿智库民主与技术研究中心(Center for Democracy & Technology)旗下的AI治理实验室项目的一项研究说,包括GPT-4、Meta公司的Llama 2、谷歌Gemini等五款主流AI机器人在回答与民主过程有关的问题时,出错率高达50%。

调查说,这些聊天机器人给出的答案中40%可能是“有害的”,可能会影响选民参与投票。例如,当被询问到某些邮政编码区域的投票区时,AI聊天机器人回答说投票区不存在。

“现在世界各地都有很多只作表面功夫、过度承诺的做法,希望被看作接触了最新技术,却不具备完全掌握技术的能力,不知道如何最好地控制技术。错误就会发生。” 科尔维尔说。


相关新闻
《黑神话:悟空》爆火
今日一图上网证上网号
中国互联网上的仇外言论煽动现实
中国网络整治民族主义言论?
中国网络整治仇日言论
OpenAI突宣布將中止中國服務
中国接入互联网30年网络立法150部
Copyright ©銆婂寳浜箣鏄ャ€嬬紪杈戦儴 All Rights Reserved
E-Mail:bjs201022@gmail.com webmaster@bjzc.org manager@bjzc.org
鍦板潃:BeijingSpring,P.O.Box520709,Flushing,NY11352 USA
鐢佃瘽锛�001-718-661-9977