一些人在 Meta 的社交媒体上发帖称,不允许将他们的数据用于人工智能训练。
比如:“嘿 Meta,我没有允许你这样做。停下来。”显然,事情不是这样运作的。
黑人妇女对着手机忧心忡忡
正如我所说,我们接受这些条款(即使我们没有阅读它们),并且没有办法选择退出。
但是总有“人迹罕至的道路”(引用罗伯特·弗罗斯特的话)——你可以删除已发布的内容或整个帐户,像印加人一样生活。
另一个选项是将所有内容设置为私密,因为这些条款仅适用于公开信息。我更喜欢这个。
然而,虽然您可以删除内容或将帐户设为私密,但要抹去您的数字足迹却很困难,尤其是当其他人可能分享有关您的信息时。
你可以尝试一些小东西
Meta的隐私中心隐藏了一个表格,名为“Meta 用于人工智能 菲律宾 whatsapp 数据 的第三方信息的数据主体权利”。你可以填写该表格,要求 Meta 删除用于其人工智能的任何个人信息。
但问题是,Meta 不会自动删除数据。他们会审查请求,看当地法律是否要求他们删除您的数据。
有些人,比如多伦多小企业主 Alanna Smith,已经尝试过这种方法。她必须证明自己的数据确实被 Meta 的 AI 使用,这有点像证明你的猫不是家里真正的主人——几乎不可能!
史密斯从未得到确认,所以她不知道她的请求是否通过了。当被问及时,Meta 的发言人没有透露有多少人成功选择退出。
所以,祝你好运!
真的有出路吗?
这取决于你认为的出路。但是,嘿,你听说过Cara 应用程序吗?
Cara 应用程序是一个新的社交网络平台,专为艺术家设计,可让他们分享作品,而不必担心其被用于训练人工智能模型。
Cara 将自己定位为创意人士的安全港湾。它确保其平台上发布的图像不会被抓取用于 AI 训练目的。
Cara 通过在所有帖子上实现“NoAI”标签等功能来实现这一目标,向 AI 抓取工具发出信号不要使用该内容。
尽管这些标签可能无法万无一失地抵御坚定的数据挖掘者,但它们代表着保护艺术家作品的重要一步。
您是否应该担心您的数据?
好吧,让我们面对现实吧。你是否应该担心 Meta 使用你的数据来训练他们的 AI 模型?
尽管 Meta 有自己的核心价值和隐私措施,但对于自己的数据被窃取用于 AI 训练而产生的担忧是完全可以理解的。
当然,Meta 提供了透明度和控制功能,但说实话,他们收集的数据量之大可能会让人感到有点不知所措。
真正的担忧归结为控制和透明度与 Meta 收集和使用的大量数据之间的平衡。
一方面,Meta 的生成式 AI 模型承诺提供一些非常酷的功能和更好的用户体验。但另一方面,这是以大量使用个人数据为代价的。
对于我们这些处于受保护区域之外的人来说,选择不使用数据进行人工智能训练通常不是一个选择。
那么,您怎么看?为了这些出色的人工智能功能,这种权衡是否值得?或者,您的数据被使用的想法是否让您想重新考虑您的社交媒体习惯?
如果我不住在英国或欧盟,但不想让 Meta 使用我的数据,该怎么办?
-
- Posts: 687
- Joined: Fri Dec 27, 2024 12:31 pm