24小时联系电话:18217114652、13661815404

中文

您当前的位置:
首页>
电子资讯>
行业资讯>
人工智能和监管——工...

行业资讯

人工智能和监管——工程师需要注意什么


人工智能和监管——工程师需要注意什么

在过去的十年中,人工智能经历了突飞猛进的发展,现在发现自己在许多日常应用中,包括网站流量管理、广告和预测性维护。从道德的角度来看,人工智能会带来哪些挑战,欧盟将出台哪些立法,以及工程师为什么要谨慎对待人工智能?

AI 带来了哪些挑战?

世界各地的一些关键人物表达了他们对人工智能的担忧,并讲述了人工智能将如何以类似于终结者的方式征服人类的故事。然而,事实是,人工智能不太可能以灭绝人类的单一目的以虐待狂杀手的方式行事。但这并不是说人工智能不会带来挑战,如果不加以控制,它可能会横行无忌。

 人工智能的许多方面都带来了工程方面的挑战、隐私和道德观点。除非社区能够齐心协力解决这些问题,否则世界各地的政府可能会开始监管人工智能并可能阻碍其进步。

首先,人工智能面临的更大挑战之一是它在决定个人命运方面的用途。人工智能可以很容易地用于预测个人的行为,并使用这些结果来确定信用评级和保险费。尽管如此,此类决定可能会改变个人的生活。因此,有人可能会争辩说,人工智能缺乏同情心和人性会导致仅基于预测的不公平判断。然而,反驳是人工智能无法区分,因为人工智能从根本上无法持有意见(即它只是从提供给它的数据中学习)。

AI 面临的另一大挑战是从隐私的角度来看。人工智能要提高其执行任务的能力,就需要数据。当涉及到人工智能用于营销和广告时,此类数据将采用姓名、年龄、性别和国籍等个人信息的形式。但是,收集大量此类数据实际上使每个用户都有可能侵犯隐私。未经用户许可,这些数据可能会被出售给第三方或被恶意活动窃取。

然而,人工智能变得非常成问题的地方是 当局描述公民和限制个人自由这方面的主要例子是中国政府部署人工智能来跟踪每个公民,并根据这些人对执政党的忠诚度给他们一个社会信用评分。社会信用低的人不得乘坐飞机、火车等公共交通工具,社会信用分数极低的人被公开羞辱,与个人为朋友的人则被警告不要靠近。

欧盟将很快引入人工智能立法

最近,欧盟一直表示有兴趣引入人工智能监管,以防止人工智能被用于可能侵犯个人自由和隐私的高风险类别。根据欧盟公布的信息,人工智能的使用将属于三类之一;不可接受的风险、高风险和有限风险。

不可接受的风险是涉及潜意识和操纵性消息传递、当局使用的实时生物识别以及任何社交评分系统的应用程序。欧盟打算彻底禁止这些领域使用人工智能和任何相关工具。

高风险是对个人用于信贷和其他金融服务进行排名的应用程序。例如,使用人工智能挑选候选人的招聘工具被认为是一种高风险的应用程序。此类别还包括用于非公共场所身份识别的生物识别系统以及用于司法行政的任何系统。

最后一类 本质上包括另一个 AI 应用程序这被认为对社会、数据和权利的影响最小。此类应用包括 AI 聊天机器人、垃圾邮件过滤器、视频游戏中的 AI 和库存管理。

为什么工程师要小心人工智能?

毫无疑问,人工智能已被证明是 用于预测分析和数据管理的宝贵工具尽管如此,仍有越来越多的应用程序出于不道德和恶意的原因继续滥用人工智能的力量。

如前所述,人工智能在中国社会信用体系中的使用是人工智能如何被可怕滥用的一个典型例子。让社会信用体系变得更糟的是,人工智能和视觉技术的广泛使用是自我完善的,这意味着社会信用体系使用的时间越长,人工智能就会变得越好。因此,使用一种在西方看不到的不道德技术现在正在推动中国人工智能技术远远超出西方的能力。

出奇, 人工智能可以实现到大多数应用程序中,正是这一事实使其成为工程师的诱人工具。人工智能可以随着时间的推移进行训练,而不是描述系统可以做出的每一个可能的决定,这可以说是一项更容易的任务。

然而,仅仅因为一个 AI可以完成任务并不意味着它应该这可以通过使用跟踪系统、生物特征数据收集和其他不必要的应用程序来清楚地看到,这些应用程序为了使用人工智能而收集个人数据。例如,一家公司可以使用人工智能系统让员工基于面部识别进入建筑物。尽管如此,钥匙卡可以完成相同的任务,而无需存储个人信息。

如果工程师在使用 AI 时不小心进行自我调节,那么世界各地的政府可能会开始出台法律法规,使开发 AI 变得更加困难。工程师最不需要的就是繁文缛节,所以不要陷入物联网兴起期间行业陷入的陷阱。

 

请输入搜索关键字

确定