“科技为善”引领人工智能全方位管理可控人工智能

2019年8月29日,世界人工智能大会在上海开幕。

世界上一些国家的著名科技公司和学术界及工业界的知名人士参加了会议,对人工智能的发展进行了前景分析并提出了建议。

腾讯董事会主席兼海南彩票首席执行官马花藤在讲话中表示,人工智能治理的紧迫性越来越高。人工智能在治理的各个方面都应该以“科学技术为善”为指导,以确保人工智能是“可知的”、“可控的”、“可用的”和“可靠的”。

确保人工智能的“知识、控制、使用和依赖”,也是科学技术史上先研发后管理的传统思维和实践的一个教训。

在科技史上,汽车的发明把人类社会带入了工业文明时代,但是,在汽车的使用过程中,人们却较难控制其带来的交通事故和伤害,安全带的发明和使用就是控制汽车伤害事件的一个要素,但是,汽车发明之后80年才研发出安全带。在科学技术史上,汽车的发明把人类社会带入了工业文明时代。然而,在使用汽车的过程中,人们很难控制汽车造成的交通事故和伤害。安全带的发明和使用是控制汽车事故的重要因素。然而,安全带直到汽车发明80年后才发展起来。

基于这一认识,微软为其人工智能的发展提出了一个原则——每个人工智能产品都必须经过人工智能伦理审查。

人工智能的快速发展也使人类认识到,如果人工智能在可用的时候不可控,人类将付出更大的代价。

因此,对每个人工智能产品的伦理审查和监管已经成为人工智能研发必须同时完成的任务。

2016年,微软CEO萨特雅纳拉雅娜·纳德拉(satyanarayana nadella)提出了人工智能的十大伦理:人工智能必须用来帮助人类;人工智能必须透明;人工智能必须在不损害人类尊严的情况下实现最大效率。人工智能必须保护人们的隐私;人工智能必须承担算法责任,这样人类才能消除无意伤害;大赦国际必须防止偏见。

以上六项是针对人工智能产品提出的,但同时也提出了使用人工智能产品的人应该具备的四项伦理原则,包括人应该具有同理心,这在人类与人工智能共存的世界中非常有价值。教育,为人工智能的研究、开发和管理提供基础;为了保持人们的创造力,机器将继续丰富和增强人们的创造力。最终的决定和责任在于判断或诊断人工智能,或对人工智能产生的所有结果负责。

如果实施,这些原则当然可以有效地控制人工智能。

然而,事实上,由于各种原因,许多机构和开发者设计的人工智能产品是不可控的,因此在应用中会出现各种问题。

目前,最大的问题是人们的隐私受到侵犯,很难保证安全。因此,人们批评和反对它。

最近的一个重要教训是苹果的语音助理Siri。

2019年7月,媒体报道称,思睿会秘密记录用户的私人声音,如就医时的医疗信息等。,并将其转换成声音文件发送给苹果在不同国家的承包商。

声音文件还记录用户的位置、使用数据和通信内容。

经过一番解释和跷跷板后,苹果公司于8月28日秘密记录了与用户的沟通,并将文件泄露给外包商,要求正式道歉。

由于缺乏隐私,用户对此进行了批评,如果这些条件得不到改善,苹果将失去大量用户,甚至被市场抛弃。

然而,这种情况也表明,人工智能的发展最终取决于它能否被控制,因为没有人类的控制,人工智能就无法进化和升级。

正是在人与人工智能的相互作用下,人工智能的伦理审查和监控才有可能失灵或失范,造成安全漏洞。

因此,人工智能只有在不仅可用而且可控可靠的情况下才会有未来。

其他产品也是如此。

发表评论