最新研究表明,人工智能提高了工人的工作效率,但我们仍然缺乏监管。 这 2024年人工智能指数报告斯坦福大学以人为中心的人工智能研究所出版的《人工智能》揭示了企业的八个人工智能趋势,包括该技术如何在每项任务上仍然无法胜过人类大脑。
TechRepublic 结合报告合著者 Robi Rahman 和 Anka Reuel 的见解,深入探讨了这些要点对商业的影响。
SEE:2024 年值得关注的 5 大人工智能趋势
1. 人类在许多任务上仍然优于人工智能
研究表明,在高级数学问题解决、视觉常识推理和规划等复杂任务上,人工智能仍然不如人类(图A)。 为了得出这个结论,我们将模型与许多不同业务功能的人类基准进行了比较,包括编码、基于代理的行为、推理和强化学习。
图A
虽然人工智能在图像分类、视觉推理和英语理解方面确实超越了人类的能力,但结果表明,企业有潜力利用人工智能来完成人类员工实际上表现更好的任务。 很多企业已经 担心过度依赖人工智能产品的后果。
2. 最先进的人工智能模型变得越来越昂贵
AI Index 报告称,到 2023 年,OpenAI 的 GPT-4 和 Google 的 Gemini Ultra 的训练成本分别约为 7800 万美元和 1.91 亿美元(图B)。 数据科学家 Rahman 在一封电子邮件中告诉 TechRepublic:“按照目前的增长率,到 2026 年,前沿人工智能模型的成本将约为 50 亿至 100 亿美元,届时很少有公司能够负担得起这些培训费用。”
图B
2023 年 10 月,《华尔街日报》发表文章称,谷歌、微软和其他大型科技公司 努力将其生成式人工智能产品货币化 由于运行它们所需的巨额成本。 存在这样的风险:如果最好的技术变得如此昂贵,以至于只有大公司才能获得它们,那么它们相对于中小企业的优势可能会不成比例地增加。 这是由 2018年世界经济论坛。
然而,拉赫曼强调,许多最好的人工智能模型都是开源的,因此可供所有预算的企业使用,因此该技术不应扩大任何差距。 他告诉 TechRepublic:“开源和闭源人工智能模型正在以相同的速度增长。 最大的科技公司之一 Meta 正在开源其所有模型,因此那些无力自行训练最大模型的人可以下载他们的模型。”
3.人工智能提高生产力和工作质量
通过评估一些现有的研究,斯坦福大学的研究人员得出结论,人工智能使工人能够更快地完成任务并提高他们的产出质量。 观察到的职业包括计算机程序员(其中 32.8% 的人表示生产力有所提高)、顾问、支持代理(图C)和招聘人员。
图C
就顾问而言,GPT-4 的使用弥合了低技能和高技能专业人员之间的差距,低技能群体的绩效得到了更大的提升(图D)。 其他研究 还表明,生成式人工智能尤其可以充当均衡器,因为经验不足、技术水平较低的工人 从中获得更多。
图D
然而,其他研究确实表明,“在没有适当监督的情况下使用人工智能可能会导致性能下降,”研究人员写道。 例如,有广泛报道称 幻觉在执行法律任务的大型语言模型中普遍存在。 其他研究发现,我们可能无法充分发挥人工智能提高生产力的潜力 再过十年,因为产出不理想、复杂的指导方针和缺乏熟练程度继续阻碍工人的发展。
4.美国人工智能监管不断加强
AI指数报告发现,2023年,美国活跃的人工智能相关法规有25项,而2016年只有1项(图E)。 不过,这并不是一个稳定的增长趋势,仅 2022 年至 2023 年,人工智能相关法规的总数就增长了 56.3%。 随着时间的推移,这些法规也从对人工智能发展的扩张性转变为限制性,其中最普遍的主题是对外贸易和国际金融。
图E
欧盟与人工智能相关的立法也在不断增加,2021年、2022年和2023年将分别通过46项、22项和32项新法规。 在该地区,监管往往采取更广泛的方法,通常涵盖科学、技术和通信。
请参阅:NIST 成立人工智能安全联盟
对于对人工智能感兴趣的企业来说,必须及时了解影响他们的法规,否则他们将面临严重的违规处罚和声誉受损的风险。 2024 年 3 月发表的研究发现 只有2%的大公司 英国和欧盟都知道即将出台的欧盟人工智能法案。
5、生成式人工智能投资不断增加
从 2022 年到 2023 年,用于根据提示生成内容的生成式 AI 产品的资金几乎增加了八倍,达到 252 亿美元(图F)。 OpenAI、Anthropic、Hugging Face 和 Inflection 等都获得了大量融资。
图F
生成式人工智能功能的构建可能会满足希望将其纳入流程的企业的需求。 2023 年,财富 500 强公司的所有财报电话会议中,有 19.7% 提到了生成式人工智能,并且 麦肯锡报告 据透露,55% 的组织现在至少在一个业务部门或职能中使用人工智能,包括生成式人工智能。
2022 年 11 月 30 日 ChatGPT 推出后,人们对生成式 AI 的认识迅速增强,从那时起,各组织就一直竞相将其功能融入到自己的产品或服务中。 麻省理工学院技术评论洞察 (MIT Technology Review Insights) 与 Telstra International 合作,最近对 300 家全球企业进行了一项调查,发现受访者期望他们的 到 2024 年,部署生成式人工智能的功能数量将增加一倍以上。
SEE:生成式人工智能的定义:它是如何工作的、好处和危险
然而,有一些证据表明生成式人工智能的繁荣 “可能会很快结束”, 根据领先的人工智能声音加里·马库斯的说法,企业应该保持警惕。 这主要是由于当前技术的局限性,例如 偏见、版权问题和不准确之处。 根据斯坦福大学的报告,可用于训练模型的在线数据数量有限可能会加剧现有问题,从而限制改进和可扩展性。 报告指出,人工智能公司可能会在 2026 年耗尽高质量的语言数据,在 20 年内耗尽低质量的语言数据,并在 2030 年代末至 2040 年代中期耗尽图像数据。
6. LLM责任的基准差异很大
报告称,在可信度或责任方面,科技公司评估其法学硕士的基准存在显着差异(图G)。 研究人员写道,这“使得系统地比较顶级人工智能模型的风险和局限性的工作变得更加复杂。” 这些风险包括有偏见的输出以及从训练数据集和对话历史记录中泄露私人信息。
图G
斯坦福大学智能系统实验室的博士生鲁埃尔在一封电子邮件中告诉 TechRepublic:“目前没有报告要求,我们也没有可靠的评估,可以让我们自信地说,如果一个模型通过了这些评估,那么它就是安全的。”第一名。”
如果没有这一领域的标准化,一些不值得信赖的人工智能模型可能会漏网而被企业整合的风险就会增加。 报告补充说:“开发人员可能有选择地报告能够积极突出其模型性能的基准。”
Reuel 向 TechRepublic 表示:“有害模型漏掉的原因有多种。 首先,没有标准化或必需的评估,因此很难比较模型及其(相对)风险;其次,没有可靠的评估,特别是基础模型的评估,无法对模型的绝对风险有可靠、全面的了解。”
7. 员工对人工智能感到紧张和担忧
该报告还追踪了随着意识的提高,人们对人工智能的态度如何变化。 一项调查 研究发现,52% 的人对人工智能产品和服务表示紧张,并且这一数字在 18 个月内上升了 13%。 研究还发现,只有 54% 的成年人认为使用人工智能的产品和服务利大于弊,而 36% 的成年人担心人工智能可能会在未来五年内夺走他们的工作(图H)。
图H
人工智能指数报告中引用的其他调查发现,53% 的美国人目前对人工智能的担忧多于兴奋,他们最普遍的担忧是人工智能对就业的影响。 这种担忧可能会对 员工心理健康 当人工智能技术开始融入组织时,企业领导者应该对其进行监控。
8. 当今最受欢迎的法学硕士大多由美国和中国创建
TechRepublic 的 Ben Abbott 在其有关在亚太地区构建人工智能基础模型的文章中介绍了斯坦福大学报告中的这一趋势。 他部分写道:
“美国在人工智能领域的主导地位持续到 2023 年。 斯坦福大学2024年人工智能指数报告发布 发现 2023 年有 61 款著名车型在美国发布; 这领先于中国的 15 款新车型和欧洲最大贡献者法国的 8 款车型(图一)。 英国和欧盟作为一个地区生产了 25 个著名模型——自 2019 年以来首次击败中国——而新加坡则拥有 3 个模型,是亚太地区唯一另一个生产著名大型语言模型的国家。”
图一
1713934596
#斯坦福大学研究人员指出 #年 #个人工智能商业趋势
2024-04-23 19:41:44