然而,一旦任务变得更加复杂并且需要更多的知识,模型通常就会不堪重负。总而言之,ChatGPT 是一个很棒的原型,它展示了人工智能在就业市场中的颠覆性应用。
AI发展出意识了吗? – Google-LaMDA 争议
据《华盛顿邮报》报道,谷歌软件工程师 Blake Lemoine 在声称谷歌开发的名为 LaMDA 的人工智能算法具有意识和灵魂后被停职。在与 LaMDA 交谈后,软件工程师确信了这一点。该计划相当于一个七八 养老院营销清单 岁的孩子。由于谷歌没有人认同这一信念,莱莫因据称向美国参议院的一名成员提交了有关聊天机器人的文件,声称谷歌歧视他的宗教信仰。随后他被谷歌解雇。 Lemoine 此后公布了他与 LaMDA 的一次谈话记录。背景:LaMDA 是一种用于像 ChatGPT 一样的对话的语言模型,但在没有人类反馈循环的情况下进行训练。
我曾经问过一个语言模型(ChatGPT)是否有意识。为了完整起见,必须说,由于 LaMDA 的争论,这对于人工智能公司来说是一个关键问题,而这个答案可能是开发人员有意训练的。这类似于模型没有公然的种族主义或性别歧视的事实。
与 ChatGPT 对话
一把双刃剑,因为这些模型是根据人类编写的文本进行训练的。结果,人类的偏见和倾向自然地流入了所提供的文本中。另一方面,这意味着这些程序可以很好地与人交互,能够理解人类的交流并进行正常的对话。然而,LaMDA具有意识的说法却被所有专家认为站不住脚。这无法通过与人工智能的沟通来证明。
《人工智能法案》是欧盟拟议的一项法律,旨在为欧盟的人工智能监管创建一个框架。拟议立法旨在确保人工智能系统的安全性和可靠性,并保护与人工智能使用相关的个人的基本权利。
该法律将人工智能应用分为三类风险:
禁止
有风险
不受监管
禁止带来不可接受风险的应用程序,例如政府运营的社会评分。高风险应用程序(例如对申请人进行排名的简历扫描工具)须遵守特定的法律要求。未被明确禁止或被视为有风险的应用程序在很大程度上仍然不受监管。
该法律旨在确保人工智能的使用有益于社会并保护个人权利。为人工智能系统的开发和部署制定明确的指导方针,旨在解决对人工智能可能出现的负面行为(例如偏见和歧视)的担忧。该法律还旨在要求组织明确证明其人工智能系统决策的合理性,从而提高人工智能使用的透明度和问责制。