公益性岗位申论题(10.21):为人工智能注入更多安全基因

2019-11-13| 发布者: admin| 查看: |

2019年8月发布的《人工智能安全与法治导则》,从算法安全、数据安全、知识产权、社会就业和法律责任等五大方面,对人工智能发展的风险提出安全与法治应对策略。这是人工智能行业对于社会诉求的一种积极回应,也是行业对于自身技术发展安全性的一次深刻思考。

公益性岗位申论题:为人工智能注入更多安全基因

公考角度中公解读[提出观点]

安全性作为其技术发展的考量标准,为人工智能注入更多的人文与安全基因,才能推动人工智能向安全、可靠、可控的方向发展。

[综合分析]

放眼当下,借助人工智能,企业赋予每个用户的偏好和行为以大量数据标签,摸透用户甚至超过用户对自己的了解;在社交媒体中,人工智能将观点相近的内容反复推荐给用户,逐步加剧偏见强化;通过对海量数据的挖掘,不同的消费者购买同一件商品的价格不同,有被 杀熟 之嫌 人工智能技术的商业化,带来了技术滥用、信息安全等问题。可以说,随着人工智能技术的飞跃, 智慧大爆发 带来的工具伦理性问题一直未被解决,进而造成个人隐私泄露、法律伦理困境。如何确保安全、合理地使用人工智能,亟待整个社会求解。

智能时代的大幕正在拉开, 人工智能+教育 人工智能+医疗 人工智能+媒体 不断打破着各个行业的发展瓶颈,重塑着不同产业的生产模式,更是给人类社会的发展拓展了更多的智慧空间。也许,技术的不断革新可以破解现存的 技术黑箱 ,但人工智能的发展必须始终坚持的是,把安全性作为其技术发展的考量标准,把握商业价值和人文价值的统一,把握市场伦理和技术伦理的统一。为人工智能注入更多的人文与安全基因,才能推动人工智能向安全、可靠、可控的方向发展。

[对策措施]

实现技术可用、可靠、可知、可控,首先要在人工智能的商业考量中注入更多的人文关怀。必须明确的是,利用技术的主体和收益方应是人本身。发挥技术优势去弥补行业短板,理应明确人的主体地位,让人工智能在商业价值与人文价值中求得平衡。

同时,更要让人工智能处在一个公平、安全的市场伦理下发展。技术应当存在伦理边界,技术发展和市场伦理的底线就是公平和安全。一方面,新的产品和技术应当经过严格的测试和验证,确保其性能达到合理预期;另一方面新技术的发展应确保数字网络、人身财产以及社会发展的安全。