如何帮助城市利用人工智能进行负责任的创新?

Discuss smarter ways to manage and optimize cv data.
Post Reply
jrineakter
Posts: 406
Joined: Thu Jan 02, 2025 7:18 am

如何帮助城市利用人工智能进行负责任的创新?

Post by jrineakter »

4 月 25 日,我与来自几个欧洲城市的代表一起参加了在赫尔辛基举行的研讨会,讨论棘手的人工智能 (AI) 伦理问题,研讨会由赫尔辛基首席数字官米科·鲁萨马 (Mikko Rusama ) 主持。

为了与最近关于这个话题的争论保持一致,我们的讨论集中在城市(特别是公共部门组织)如何在接受人工智能提供的诸多好处与确保解决这项技术的风险和潜在缺点之间取得适当的平衡。

拉彭兰塔大学实践教授 Atte Jääskeläinen 就“人工智能伦理与常规伦理有何不同?”这一主题发表了演讲,强调了将新技术与社区不断变化且有时相互矛盾的价值观相结合的复杂性。随后,埃森哲全球城市和基础设施行业负责人 Jen Hawes-Hewitt 分享了她对“我们都有偏见”这一主题的看法,并提出了一些解决人工智能偏见问题的想法和策略。

原则问题
研讨会开始时的一个假设是,我们在此创建一套城市可以遵循的人工智能道德使用原则。

当然,许多城市、大学、企业和其他机构已经编写了自己的版本。您可以在此博客文章中看到其中一些版本。

然而,正如我之前所指出的——以及我在本次会议上所介绍的——几乎所有此类尝试都存在两个缺陷之一。像谷歌这样的,提供广泛原则的尝试太高层次了,几乎没有提供任何关于如何在任何特定情况下采取行动的指导。同时,随着人工智能的复杂性增加,更详细的代码中的建议往往不再实用或有意义。如果代码不适用于更复杂的情况,那么在被遵循之前它就会变得多余。

但如果原则不是答案,那答案是什么?

我之前的建议是,更好的方法是让公共部门组 99 英亩数据 织及其员工了解一系列问题,在实际环境中部署 AI 之前,他们应该能够回答这些问题。我对这些问题的最佳回答如下:

使用 AI 时需要问的问题
我的观点并不是说存在一套“正确”的答案,而是说组织应该能够“展示他们的工作方式”,确保他们已经仔细考虑过每一个要点,并制定了适当的保障措施、监督和评估,以确保将风险降至最低。值得注意的是,这种方法强调公共部门的专业性,使工作人员能够判断在不同情况下可以接受的风险水平。你可以阅读我关于这一点重要性的推理。

然而,在赫尔辛基研讨会讨论之后,我现在得出结论,即使是这种方法也不够。要理解其中的原因,我们需要回到根本,仔细思考我们想要实现的目标。

人工智能的原因
为什么这么多城市和机构不遗余力地制定人工智能使用的标准或原则?据推测,有两个动机。

首先,他们希望能够从人工智能所能做的许多有用的事情中受益。人工智能可以编纂最佳实践并大规模推广,消除人类偏见,实现基于证据的现场决策,发现人类无法看到的模式,优化人类无法建模的复杂系统,快速消化和解释大量数据,并自动化高要求的认知活动。这是很长的清单,公共部门组织可以充分利用这些好处,这符合每个人的利益。

其次,他们认识到,公众担心人工智能可能会侵犯隐私或造成伤害、不公平和道德错误。他们知道,公众对人工智能的使用方式有信心至关重要,否则他们可能会遭到强烈反对。最近的剑桥分析公司丑闻凸显了公众如何意识到他们的数据是如何被使用的,并关心他们的个人信息和行为是如何被算法分析和使用的。因此,他们希望自己的方法是正确的。

然而,许多城市似乎未能意识到,要实现这些目标,他们需要的不是高高在上的原则,而是能够真正使公共部门工作人员拥有技能和信心以正确的方式、在正确的环境下、在适当的保障措施下使用人工智能的措施。
Post Reply