冰雪运动,不仅是中国在多边外交场合广聚朋友的“共同语言”,更是在双边交往中深化友谊的“金钥匙”。
习近平在2017年访问芬兰时,于芬兰总统尼尼斯托举行的欢迎宴会上,获赠中芬两国冰雪运动员送上的运动衣,两国元首商定将2019年定为中芬冬季运动年。
2019年,在尼尼斯托总统访华时,为衬托冬季运动主题,北京的人民大会堂西大厅被冰雪元素装扮一新,中国的大熊猫和芬兰的驯鹿在银装素裹背景下相映成趣。
一来一往之间,中芬冬季运动年正式开启,两国人文交流再添“冰雪元素”。
随着冬奥会正式进入“北京时间”,这种相知于“冰雪”之中的独特叙事,也在向人们讲述着中国的“价值观”与“世界观”。
正如习近平亲自录制视频助力北京申办冬奥时所言,“2022年冬奥会在中国举办,将有利于推动中华文明同世界各国文明交流互鉴,带动中国13亿多人关心、热爱、参与冰雪运动,让中国人民再次有机会为奥林匹克运动发展和奥林匹克精神传播作出贡献。”
由此,外界不难读出,这种“价值观”以“人”为尺度,这种“世界观”以“相知”为底色。
北京冬奥申办成功后,习近平2017年专程到访瑞士洛桑的国际奥委会总部。在拥有上万件展品的国际奥林匹克博物馆,国际奥委会主席巴赫陪同习近平参观并全程讲解。习近平则代表中国向国际奥委会送上苏绣《仕女蹴鞠图》,并向巴赫介绍中国古代“足球”。在浓缩着历史的博物馆,中外文明交流相知的一幕,恰与奥林匹克精神彼此映照。
在中外互动中,北京冬奥会不只向外界讲述“高大上”的故事。借助“带动三亿人参与冰雪运动”的东风,家门口的滑雪场、身边的志愿者、孩子们的滑冰课,勾勒出中国百姓日常生活的生动图景,更立体的中国形象在世界得到呈现。
“成功举办北京冬奥会、冬残奥会,不仅可以增强实现民族伟大复兴的信心,也给世界展现了阳光、富强、开放、充满希望的国家形象。”今年伊始,习近平在考察北京冬奥筹备工作时有感而发,“历史会镌刻下这一笔,世界将对中国道路有全新的认识。”
2008年的北京,在全球40多亿电视观众的注目下,中国以一场无与伦比的奥运盛会刷新世界的“中国印象”。2022年,透过北京冬奥会的窗口,正不断推进新一轮高水平对外开放的中国将如何与外界互动,人们同样期待。
在“冰雪”中相知,中外互动的另一种叙事,已经悄然展开。(完)(图片素材来源:新华社、中新社、北京2022年冬奥会和冬残奥会官网)
出品人:陈陆军
总策划:王晓晖
监制:张红、夏宇华
策划:郭金超
统筹:梁晓辉、王凯
主笔:黄钰钦
视觉|编辑:张舰元、李雪瑶、马学玲
人工智能如何做到可信、可用?专家热议:把责任归结到个人******
中新网北京12月11日电 人工智能治理的理想状态,是人工智能技术能做到可知、可信、可控、可用。而在现实中,人工智能技术手段虽然非常强大,但是离完美、完善仍有相当的距离。从技术角度和技术应用角度,人工智能的发展如何做到扬长避短?
近日,在2022人工智能合作与治理国际论坛上,专家围绕该话题进行了讨论。
中国工程院院士、鹏城实验室主任高文认为,现阶段很多技术还处于发展的过程中,如果过早地说这个不能用、那个不能用,可能会抑制技术本身的发展。但反过来,如果什么都不管,也不行。
“因此,现在更多还是从道德层面多进行引导。同时,做技术的人,也要尽量把一些可能的风险、抑制工具,即约束风险的工具,尽快想明白。自己也做,同时号召大家做,两者结合。”他说。
清华大学智能产业研究院国强教授、首席研究员聂再清认为,我们要保证能够创新,但同时不能让创新对我们的生活产生破坏性的影响,最好的办法就是把责任归结到个人。
“技术的背后是有人在控制的。这个人应该时刻保证工具或创新在危险可控的范围内。同时,社会也要进行集体的监督,发布某个产品或技术,要能够召回、撤销。在创新和监管之间,当然是需要平衡的,但归根结底,还是要把责任落实到个人身上。”他指出。
瑞莱智慧RealAI公司联合创始人、首席执行官田天补充道,在技术可解释性方面,需要去进行技术发展与相应应用场景的深度结合。大家需要一个更加可解释的AI模型,或者更加可解释的AI应用。
“但我们真正想落地的时候,会发现每个人想要的可解释性完全不一样。比如:模型层面的可解释,可能从研发人员角度觉得已经很好了,但是从用户的角度是看不懂的,这需要一些案例级的解释,甚至通过替代模型等方式进行解释。因此,在不同领域,需要不同的可解释能力,以及不同的可解释级别,这样才能让技术在应用场景发挥最好的作用。”他说。
将伦理准则嵌入到人工智能产品与系统研发设计中,现在是不是时候?
高文认为,人工智能软件、系统应该有召回的功能。如果社会或伦理委员会发现这样做不对,可能带来危害,要么召回,要么撤销。
高文说,应用的开发者,系统提交或者最终用户让他去调整的时候,他应该有责任。如果开发者发现已经踩线了,应该给他一个保护机制,他可以拒绝后面的支持和维护,甚至可以起诉。“不能只说哪一方不行,光说是开发者的责任,他可能觉得冤枉,因为他只提供工具,但有时候是有责任的,只是说责任怎么界定。”
“在人工智能的发展过程中,一方面要建立一些红线。”田天建议,比如,对于人工智能的直接滥用,造假、个人隐私泄露,甚至关联到国家安全、生命安全的,这些领域一定要建立相关红线,相应的惩罚规定一定要非常清晰,这是保证人工智能不触犯人类利益的基本保障。
“在这个基础上,对于处于模糊地带的,希望能留有更多空间。不光是从限制角度,也可以从鼓励更加重视伦理的角度,促进合规地发展。”田天称。
2022人工智能合作与治理国际论坛由清华大学主办,清华大学人工智能国际治理研究院(I-AIIG)承办,中国新闻网作为战略合作伙伴,联合国开发计划署(UNDP)、联合国教科文组织(UNESCO)等国际组织、国内外学术机构支持。(中新财经)
(文图:赵筱尘 巫邓炎) [责编:天天中] 阅读剩余全文() |