如何让您的员工像人工智能专家一样思考

了解公司如何负责任地将人工智能集成到生产中。 此次在旧金山举办的仅限受邀人士参加的活动将探讨技术与商业的交叉点。 了解如何参加 这里


如果当您看到这块岩石时突然想微笑,那么您就遇到了很好的同伴。

作为人类,我们经常不合理地向具有某些但不是全部特征(也称为 拟人化)——我们看到这种情况发生 越来越多地使用人工智能

在某些情况下,拟人化看起来就像在与聊天机器人交互或赞扬时说“请”和“谢谢” 生成式人工智能 当输出符合您的期望时。

VB事件

人工智能影响力之旅 – 旧金山

在旧金山 VB 人工智能影响之旅的下一站,加入我们,了解负责任地将人工智能融入业务的复杂性。 不要错过获得行业专家见解、与志同道合的创新者建立联系、通过客户体验探索 GenAI 未来并优化业务流程的机会。

请求邀请

这些看似相似的任务对于模型来说实际上非常不同,因为,正如 Cassie Kozyrkov 所言 说它,“人工智能就像画笔一样富有创造力。”

人工智能生产力的最大障碍是人类将其用作工具的能力。

有趣的是,我们已经听说有些客户推出了 Microsoft Copilot 许可证,然后缩减了席位数量,因为个人觉得它没有增加价值。

这些用户很可能对人工智能最适合解决的问题与现实之间的期望不匹配。 当然,经过精心打磨的演示看起来很神奇,但人工智能并不神奇。 我非常熟悉当你第一次意识到“哦, 人工智能对此并不擅长.'

但是,您不必放弃双手并退出人工智能时代,而是可以致力于建立正确的直觉,以更有效地理解人工智能/机器学习并避免拟人化的陷阱。

定义机器学习的智能和推理

我们一直对智力的定义很差。 当狗乞求食物时,它聪明吗? 当猴子使用工具时会怎样? 我们凭直觉知道将手远离热源,这是否明智? 当计算机做这些同样的事情时,它们会变得聪明吗?

我曾经(12个月前)站在反对承认这一点的阵营中 大语言模型 (法学硕士)可以“推理”。

然而,在最近与一些值得信赖的人工智能创始人的讨论中,我们假设了一个潜在的解决方案:描述推理水平的标题。

就像我们有阅读理解或定量推理的规则一样,如果我们可以引入一个人工智能等价物呢? 这可能是一个强大的工具,用于向利益相关者传达由法学硕士支持的解决方案的预期“推理”水平,以及不现实的示例。

人类对人工智能形成不切实际的期望

我们往往对人为错误更加宽容。 事实上,自动驾驶汽车 统计上比人类更安全。 然而一旦发生事故,就会引起轩然大波。

当人工智能解决方案无法执行您可能期望人类执行的任务时,这会加剧您的失望。

我听到很多关于人工智能解决方案的轶事描述为一支庞大的“实习生”大军。 然而,机器仍然会以人类不会的方式失败,同时在其他任务上远远超过人类。

知道了这一点,我们看到这一点就不足为奇了 少于10% 成功开发和部署新一代人工智能项目的组织。 其他因素,例如与业务价值的不一致以及成本高昂的数据管理工作,只会加剧企业在人工智能项目中面临的挑战。

应对这些挑战和解锁项目成功的关键之一是让人工智能用户对何时以及如何使用人工智能有更好的直觉。

使用人工智能训练来建立直觉

培训是应对问题的关键 人工智能的快速发展 并重新定义我们对机器学习 (ML) 智能的理解。 人工智能培训本身听起来相当模糊,但我发现将其分为三个不同的类别对于大多数企业来说都是有用的。

  1. 安全:如何安全地使用人工智能并避开新的和人工智能改进的网络钓鱼诈骗。
  2. 素养:了解人工智能是什么、对它的期望以及它可能会如何崩溃。
  3. 准备就绪:了解如何熟练(高效)地利用人工智能驱动的工具以更高的质量完成工作。

通过人工智能安全培训来保护您的团队就像为新骑自行车的人配备护膝和护肘一样:它可能会防止一些擦伤,但无法让他们为激烈的山地自行车挑战做好准备。 同时,人工智能准备培训可确保您的团队充分发挥人工智能和机器学习的潜力。

您为员工提供的与新一代人工智能工具安全交互的机会越多,他们就越能建立成功的正确直觉。

我们只能猜测未来 12 个月内将提供哪些功能,但能够将它们与相同的规则(推理水平)联系起来并知道结果会发生什么,只能让您的员工更好地为成功做好准备。

知道何时说“我不知道”,知道何时寻求帮助,最重要的是知道问题何时超出给定人工智能工具的范围。

Cal Al-Dhubaib 是 AI 和数据科学主管 更远

数据决策者

欢迎来到 VentureBeat 社区!

如果您想了解前沿思想和最新信息、最佳实践以及数据和数据技术的未来,请加入我们的 DataDecisionMakers。

从 DataDecisionMakers 阅读更多内容

2024-05-04 19:05:00
1714932814

Leave a Reply

Your email address will not be published. Required fields are marked *

近期新闻​

编辑精选​