人工智能不会威胁人类。 它的所有者做

人工智能不会威胁人类。 它的所有者做

我们不应该害怕人工智能接管人类; 我们应该担心我们的人性跟不上我们的技术

在四月份 诉讼 透露谷歌浏览器的隐私浏览模式,即“隐身”, 实际上并不那么私人 正如我们所想的那样。 谷歌仍在收集数据,现在它已经有了 同意销毁,其“私密”浏览实际上并不会阻止网站或您的互联网服务提供商(例如 Comcast 或 AT&T) 跟踪您的活动

事实上,信息收集就是整个 商业模式 我们的数字和 智能设备-启用的世界。 我们所有的习惯和行为都受到监控,简化为“数据“ 为了 机器学习 人工智能,其研究结果用于 操纵我们为他人谋取利益

事情不必是这样的。 可以使用人工智能 更合乎道德 为了 每个人的利益。 我们不应该害怕人工智能作为一项技术。 相反,我们应该担心谁拥有人工智能以及其所有者如何利用人工智能来侵犯隐私和侵蚀民主。


关于支持科学新闻


毫不奇怪,科技公司、国家实体、企业和其他私人利益集团越来越多地侵犯我们的隐私并监视我们。 保险公司监控客户的睡眠呼吸暂停机,以 拒绝承保不当使用。 儿童玩具会监视游戏时间并 收集数据 关于 我们的孩子。 经期跟踪应用程序 与 Facebook 分享 以及其他第三方(包括限制堕胎州的州当局)女性最后一次发生性行为的时间、她们的避孕措施、月经细节,甚至她们的情绪。 家庭安全摄像头 监视客户并容易受到黑客攻击。 医疗应用程序 与律师分享个人信息数据经纪人,跨平台和技术跟踪人员的公司,通过将捆绑的用户个人资料出售给 任何愿意付费的人

这种露骨的间谍活动是显而易见的,并且从内心深处感觉是错误的。 然而,更险恶的是结果数据的使用方式——不仅出售给广告商或 任何试图影响我们行为的私人利益,但部署用于人工智能训练以提高 机器学习。 这可能是一件好事。 人类可以更多地了解自己,发现我们的缺点以及我们如何解决它们。 这可以帮助个人获得帮助并满足他们的需求。

相反,机器学习用于预测和 规定,即估计我们是谁以及最有可能影响我们并改变我们行为的事物。 其中一种行为是如何让我们更多地“参与”技术并生成更多数据。 AI正在被用来尝试 比我们自己更了解我们,让我们 沉迷于技术, 和 影响我们 未经我们的知情、同意或最佳利益考虑。 换句话说,人工智能并不是在帮助人类解决我们的缺点,而是在利用我们的弱点,以便私人利益可以指导我们的思考、行动和感受。

Facebook 的一位举报者几年前就已经澄清了这一点。 到 实现其收入目标,该平台使用人工智能来让人们在平台上停留更长时间。 这意味着找到适量的引发愤怒和挑衅的内容,以便欺凌、阴谋、仇恨言论、虚假信息和 其他有害通讯盛行。 该公司在用户不知情的情况下进行实验 将令人上瘾的功能设计到技术中,尽管知道这 伤害少女。 联合国的一份报告将 Facebook 称为“有用的工具”在一个地方散布仇恨 缅甸企图进行种族灭绝,以及公司 承认平台的作用 加剧暴力。 因此,公司和其他利益集团可以利用人工智能来了解我们的心理弱点,邀请我们进入最不安全的状态,并推动我们达到他们自己想要的目的。

在当前的商业模式下,人工智能和机器人技术的进步将使少数人富裕起来,同时使大多数人的生活变得更加困难。 当然,你可能会说,人们将受益于健康、设计以及人工智能可能带来的任何效率方面的潜在进步(痴迷于科技行业的经济学家无疑会这么认为)。 但当人们的尊严被剥夺、被指责不跟上并不断监视和操纵以获得他人的利益时,这就没有什么意义了。

我们不应该害怕人工智能接管人类; 我们应该担心我们的人性跟不上我们的技术。 亿万富翁们并没有创造一个工作更少、生活更多的世界,而是设计了一个以牺牲多数人利益为代价来奖励少数人的制度。 虽然人工智能已经并将继续做出伟大的事情,但它也被用来让人们更加焦虑、不稳定、以自我为中心,并且更加不自由。 除非我们真正学会互相关心并考虑所有人的利益,否则技术将继续束缚我们而不是解放我们。 没有这样的事 人工伦理学, 人类原则必须指导我们的技术,而不是相反。 首先要询问谁拥有人工智能以及如何使用它才能符合每个人的最佳利益。 未来属于我们大家。

2024-05-06 11:00:00
1714997264

Leave a Reply

Your email address will not be published. Required fields are marked *

近期新闻​

编辑精选​