可控的人工智能 才有未来

2019年11月10日 10:15

  张田勘

8月29日,2019世界人 工智能大会在上海开幕。世界一 些国家的著名科技公司和学界、产业界 著名人士参加了此次大会,对人工 智能的发展进行展望分析和献计献策。中国腾 讯董事会主席兼首席执行官马化腾在演讲时表示,人工智能(AI)治理的 紧迫性越来越高,应以“科技向善”引领AI全方位治理,确保AI“可知”“可控”“可用”“可靠”。

尽管并 非所有人都认同AI的这几个“可”,但这提出了AI的一种方向,即AI产品的 研发和使用必须同时具有几个维度,而不能 只发展一个方面。AI或其他 科技产品无论如何新颖和实用,也需要 在可控的状态下才能受到人们的欢迎,并且在 获得极大效益的同时,防止和 减少对人类社会可能造成的麻烦和灾难。这或许 是反思世界各国经济发展与环境保护曾犯下的错误后得出的经验。

确保AI的“知、控、用、靠”也是总 结了科技史上的先研发、后管理 的传统思路和做法的教训。在科技史上,汽车的 发明把人类社会带入了工业文明时代,但是,在汽车的使用过程中,人们却 较难控制其带来的交通事故和伤害,安全带 的发明和使用就是控制汽车伤害事件的一个要素,但是,汽车发明之后80年才研发出安全带。

基于这样的认知,微软提 出了其人工智能发展的一项原则——每一项AI产品都要经过AI伦理道德审查。AI的迅猛 发展也让人类认识到,如果AI在可用 的同时不可控的话,人类将 付出更大的代价。因此,对每一种AI产品进 行伦理审查和立规也成为AI研发必 须同时完成的任务。2016年微软的CEO萨提亚·纳德拉(Satya Nadella)提出了 人工智能的十大伦理:AI必须用来辅助人类;AI必须是透明的;AI必须实现效能最大化,同时又 不能伤害人的尊严;AI必须保护人的隐私;AI必须承 担算法责任以便人类可以撤销非故意的伤害;AI必须防止偏见。

以上6项是对AI产品提出的,但同时也提出了使用AI产品的 人类应该拥有的4个伦理原则,包括人要有同理心,这在人与AI共存的 世界里非常有价值;教育,为研发和管理AI提供基础;保持人的创造力,机器也 会继续丰富和增强人们的创造力;裁决和责任,最终由人来对AI的判决或诊断,或对AI产生的所有结果负责。

如果能实施,这些原则当然能对AI进行有效的控制。但实际上,由于种种原因,很多机 构和研发者设计的AI产品并非可控,也因此 会在应用时出现种种问题。目前最 大的问题就是侵犯人们的隐私,难以保证安全,也因此 受到人们的批评和反对。

最近一 个比较大的教训是苹果产品的语音助手西瑞(Siri)。2019年7月,媒体报道,西瑞会 偷录用户的隐私语音,如就诊 时的医疗信息等,并转化为声音档案,发送给 苹果公司在不同国家的承包商。声音档 案同时也记录用户的位置、使用数据与通讯内容。在经过 一番解释和拉锯之后,苹果公司于8月28日就西 瑞秘密录下与用户的交流,并将文 件泄露给外包商正式道歉。由于隐私不保,用户提出了批评,而且如 果这些情况不能改善,就会让 苹果失去大量的用户,甚至被市场抛弃。

不过这种情况也表明,人工智 能的发展最终还是取决于是否能受人控制,因为离开了人的控制,AI就无法进化和升级。正是在人与AI的互动情况之下,才有可能让AI的伦理 审查和监控失灵或失范,并造成安全漏洞。

因此,不只是可知可用,可控和 可靠也要同时得到保证和保障,AI才会有未来。其他产品同样如此。

责任编辑:

相关推荐

友情链接:    金手指棋牌---首页_Welcome   经典炸金花  手机棋牌-指定下载   好朋友棋牌-首页   百乐水果机_官网_Welcome