人工智能伦理是一个问题。学习如何保持道德

2022年4月28日

ai伦理

人工智能(AI)在我们的日常生活中无处不在。

无论你是否意识到这一点,人工智能都被内置在你日常使用的许多技术中。当Netflix推荐你可能喜欢的节目时,或者谷歌建议你从你经常飞往的机场在线预订旅行时,人工智能是参与。

事实上,91%的企业今天想要投资人工智能。虽然人工智能看起来非常技术化,接近科幻小说的水平,但它最终只是一个工具。就像任何工具一样,它可以用于好的方面,也可以用于坏的方面。因此,随着人工智能承担越来越复杂的任务,重要的是确保正确使用人工智能的道德框架到位。

让我们深入探讨一下围绕人工智能伦理的关键问题,一些有道德的人工智能的例子,最重要的是,在商业环境中使用人工智能时,如何确保道德得到尊重。

人工智能领域的伦理是什么?

人工智能伦理是一套指导和指导人工智能技术开发和使用的道德原则。因为人工智能所做的事情通常需要人类的智慧,它需要道德准则和人类的决策一样多。如果没有道德的人工智能法规,利用这项技术来延续不当行为的可能性很高。

许多行业都大量使用人工智能,包括金融、医疗保健、旅游、客户服务、社交媒体和交通运输。由于人工智能技术在众多行业中的用途不断增长,它对世界的各个方面都有深远的影响,因此需要受到监管。

当然,现在需要不同级别的治理,这取决于AI部署的行业和环境。一个使用人工智能来确定家庭平面图的机器人吸尘器不太可能彻底改变世界,除非它使用道德框架。如果道德准则不得到实施,一辆需要识别行人的自动驾驶汽车,或者一种确定哪种类型的人最有可能被批准贷款的算法,都可能并将对社会产生深远影响。

通过确定人工智能的最大伦理问题,咨询合乎道德的人工智能的例子,并考虑合乎道德地使用人工智能的最佳实践,您可以确保您的组织处于使用人工智能的正确轨道上。

人工智能的主要伦理问题是什么?

如前所述,关键的伦理问题因行业、环境和潜在影响程度的不同而有很大差异。但总的来说,当涉及到人工智能时,最大的道德问题是人工智能偏见,担心人工智能可以取代人类的工作隐私问题,以及使用人工智能进行欺骗或操纵。让我们更详细地讨论一下。

人工智能的偏见

当人工智能承担复杂的任务和繁重的工作时,不要忘记人类编程和训练人工智能来执行这些任务。人们有偏见。例如,如果以白人男性为主的数据科学家收集以白人男性为主的数据,他们设计的人工智能可能会复制他们的偏见。

但这实际上并不是人工智能偏见最常见的来源。更常见的是用于训练人工智能模型的数据可能会有偏见。例如,如果收集的数据仅来自统计上的大多数,那么它就具有固有的偏见。

一个尖锐的例子是乔治亚理工学院最近对物体识别的研究在自动驾驶汽车中。研究发现,深色皮肤的行人被撞的几率比浅色皮肤的行人高出5%左右。他们发现,用于训练人工智能模型的数据很可能是这种不公平的来源:数据集包含的浅肤色人群的例子大约是浅肤色人群的3.5倍,因此人工智能模型可以更好地识别他们。当涉及到像自动驾驶汽车撞人这样的潜在危险时,这一看似微小的差异可能会产生致命的后果。

从好的方面来说,人工智能的好处是机器学习(ML)模型的优点在于,他们训练的数据集可以被修改,只要投入足够的精力,他们就可以在很大程度上变得无偏倚。相比之下,让人们在大范围内做出完全公正的决定是不可行的。

人工智能取代工作

历史上几乎每一项技术创新都被指责会取代工作岗位,但迄今为止,从未出现过这种情况。尽管人工智能看起来很先进,但人工智能不会在短时间内取代人类或人类的工作。

20世纪70年代,自动柜员机(atm)问世,人们担心银行员工会大规模失业。事实恰恰相反。由于现在经营银行分支机构所需的出纳员减少了,银行能够增加分支机构的数量和出纳员的总体工作数量。而且他们可以花更少的钱,因为自动取款机可以处理简单的日常任务,比如处理支票存款和提取现金。

这反映在人工智能及其应用目前所发生的事情上。一个例子是人工智能第一次被引入来理解和模仿人类语言。人们对聊天机器人和智能虚拟助理(IVAs)取代了人工客服人员。现实情况是,人工智能驱动的自动化可能非常有用,但人工智能不太可能真正取代人类。

以同样的方式,自动取款机处理不需要人工干预的日常任务,由人工智能驱动聊天机器人iva可以处理简单、重复的请求,甚至可以用自然语言理解问题,使用自然语言处理提供有用的、上下文相关的答案。

但最复杂的查询仍然需要人工代理的干预。人工智能驱动的自动化在某些方面可能是有限的,但影响可能是巨大的。人工智能驱动的虚拟代理减少客户服务费用最高可提高30%聊天机器人可以处理高达80%的日常任务和客户问题。

人工智能的未来实际上是人类和人工智能驱动的机器人一起工作,机器人处理简单的任务,人类专注于更复杂的事情。

人工智能和隐私

关于人工智能伦理,最有效的担忧或许是隐私。隐私在世界上被公认为一项基本人权联合国人权宣言,各种人工智能应用都可能对其构成真正的威胁。监控摄像头、智能手机和互联网等技术使得收集个人数据变得更加容易。当公司对数据收集和存储的原因以及方式不透明时,隐私就会面临风险。

面部识别例如,由于许多原因,它是有争议的。原因之一是该技术如何识别和存储图像。许多人认为,未经明确同意就被监控是不道德的人工智能应用之一。事实上,欧盟委员会禁止面部识别在适当的道德控制到位之前,公共空间的技术。

围绕人工智能制定道德隐私法规的挑战在于,人们通常愿意放弃一些个人信息来获得某种程度的个性化。这是客户服务和营销的一个大趋势,理由很充分。

80%

的消费者更有可能在品牌提供个性化体验时购买。

来源:ε

例如,杂货店或药店根据消费者过去的消费情况提供优惠券,旅游公司根据消费者的地理位置提供优惠。

这些个人数据有助于人工智能及时提供消费者想要的个性化内容。然而,如果没有适当的数据消毒协议,这些数据就有可能被处理并出售给第三方公司,并用于意想不到的目的。

例如,现在臭名昭著的Cambridge-Analytica丑闻涉及为特朗普竞选团队工作的政治咨询公司,该公司出售了数千万脸书用户的私人数据。这些第三方公司也更容易受到攻击网络攻击还有数据泄露,这意味着你的私人信息可能会进一步落入坏人之手。

有点讽刺的是,人工智能是数据保护的一个很好的解决方案。人工智能的自我学习能力意味着人工智能驱动的程序可以检测到经常导致安全漏洞的恶意病毒或模式。这意味着通过实施人工智能,组织可以主动检测数据泄露或其他类型的攻击数据安全在信息被窃取之前进行攻击。

利用人工智能进行欺骗和操纵

利用人工智能传播错误信息是另一个重大的道德问题。机器学习模型可以很容易地生成与事实不符的文本,这意味着假新闻文章或假摘要可以在几秒钟内生成,并通过与真实新闻文章相同的渠道传播。

2016年大选期间,社交媒体对假新闻的传播产生了多大影响,这很好地说明了这一点,让Facebook成为了道德人工智能的焦点。一个2017年纽约大学和斯坦福大学研究人员的研究Facebook上最受欢迎的假新闻故事比最受欢迎的主流新闻故事分享的频率更高。这种虚假信息能够在没有Facebook监管的情况下传播,可能会影响像总统选举这样重要的事情的结果,这一事实非常令人不安。

人工智能还能够创建虚假音频记录以及合成图像和视频,其中现有图像或视频中的某人被另一个人取代。被称为“deepfakes,这些虚假的相似性非常有说服力。

当人工智能被用来故意以这种方式欺骗时,它把辨别什么是真实的责任放在了个人身上,无论是由于缺乏技能还是缺乏意志,我们已经看到,人类并不总是能够确定什么是真实的或不是真实的。

如何道德地使用人工智能

随着AI带来的所有挑战,您可能想知道在组织中实施AI作为解决方案时如何降低风险。幸运的是,有一些在商业环境中道德地使用人工智能的最佳实践。

关于人工智能伦理的教育和意识

首先,让你自己和你的同事了解人工智能可以做什么,它的挑战和局限性。与其吓唬人们,或完全忽视人工智能的潜在不道德使用,不如确保每个人都了解风险,并知道如何减轻风险,这是朝着正确方向迈出的第一步。

下一步是创建一套您的组织必须遵守的道德准则。最后,由于人工智能中的道德规范很难量化,所以要定期检查,以确保目标得到满足,流程得到遵循。

对人工智能采取以人为本的方法

采取以人为本的方法意味着控制偏见。首先,确保你的数据没有偏见(就像上面提到的自动驾驶汽车的例子)。第二,让它具有包容性。在美国软件程序员人口统计大约64%的男性和62%的白人。

这意味着,开发影响社会运作方式的算法的人不一定代表社会的多样性。通过采取包容性的方法来招聘和扩大多样性你可以确保你所创造的AI能够反映出它所面向的世界。

在所有人工智能用例中优先考虑透明度和安全性

当人工智能参与数据收集或存储时,必须教育你的用户或客户他们的数据是如何存储的,用于什么,以及他们从共享数据中获得的好处。这种透明度对于建立客户信任至关重要。通过这种方式,坚持道德的人工智能框架可以被视为为您的业务创造积极的情绪,而不是限制性的监管。

道德AI的例子

虽然人工智能是一个相对较新的领域,但已经在该领域工作了几十年的科技巨头和认识到干预和监管必要性的客观第三方已经创建了一个框架,您可以根据该框架调整自己组织的政策。

激发道德人工智能的框架

一些公正的第三方已经认识到,有必要为人工智能的道德使用制定指导方针,并确保其使用造福社会。

经济合作与发展组织(OECD)是一个致力于为更美好的生活创造更好战略的国际组织。他们创造了经合组织人工智能原则促进创新、值得信赖并尊重人权和民主价值观的人工智能的使用。

联合国(UN)也制定了一个道德人工智能框架讨论了人工智能是一种强大的工具,可以用于好的方面,但有可能以与联合国价值观不一致的方式使用,并与之背道而驰。报告建议,需要制定一套指导方针、政策或道德准则,以确保在联合国使用人工智能符合其道德价值观。

商业和道德人工智能

除了客观的第三方,该领域的最大领导者也制定了自己的道德使用人工智能的指导方针。

例如,谷歌已经开发出来人工智能原理这形成了一个道德宪章,指导他们在研究和产品中开发和使用人工智能。不仅仅是微软在创造负责任人工智能原则他们将其付诸实践,以指导微软的所有人工智能创新,但他们还创建了一个人工智能商学院,帮助其他公司制定自己的人工智能支持政策。

但你不必非得在硅谷才能倡导合乎道德的人工智能。一些规模较小的人工智能公司也纷纷效仿,并开始将道德作为其驾驶价值观的一部分。

还有一些方法可以让盈利性企业获得道德和可持续的认证,比如B企业认证这证实了一个组织将商业作为一种向善的力量。

几家以盈利为目的的人工智能公司已经加入了B公司标准,这表明人工智能永远是一个新兴趋势。虽然这种类型的认证并不仅限于人工智能公司,但它确实标志着一种道德行为的承诺,更多的科技公司可以也应该寻求认证。

人工智能造福人类

在讨论人工智能伦理时,人们更多地关注人工智能可能带来的负面用例和影响,但人工智能确实做了很多好事。重要的是要记住,人工智能技术不仅是一个潜在的问题,而且是世界上许多最大问题的解决方案。

人工智能可以预测气候变化的影响,并提出应对措施;机器人外科医生可以执行或协助需要比人类更精确的手术。

人工智能辅助耕作技术正在提高作物产量,同时减少作物产量浪费。甚至还有一些非营利组织人工智能造福人类致力于让人工智能成为具有全球影响力的力量。虽然看起来很自然,但人工智能让交通导航或向Siri询问天气等简单的日常任务变得更容易。

有了正确的道德规范,人工智能就会变得更好

人工智能已经成为编织在你日常生活中的强大工具。几乎你所有的服务和设备都使用人工智能,让你的生活更轻松或更高效。虽然恶意使用人工智能当然是可能的,但绝大多数公司都有道德原则,在可能的情况下减轻负面影响。

只要遵循最佳实践,人工智能就有潜力改善几乎所有行业,从医疗保健到教育等等。这取决于创建这些人工智能模型的人,确保他们牢记道德准则,并不断质疑他们所创造的东西如何能造福整个社会。

当你认为人工智能是一种扩展人类智能的方式,而不是取代人类智能时,它似乎并不那么复杂或可怕。有了正确的道德框架,很容易看到它将如何让世界变得更好。

将人工智能集成到您的日常功能和自动化任务人工智能软件

智能虚拟助手软件
为你的数字劳动力腾出空间

使用智能虚拟助手软件个性化和改善客户对话。

智能虚拟助手软件
为你的数字劳动力腾出空间

使用智能虚拟助手软件个性化和改善客户对话。

不要错过任何一篇文章。

订阅,让你的手指紧盯科技脉搏。

提交此表格,即表示您同意接收来自G2的营销通讯。
Baidu
map