德勤和 SAP 的权衡

无论您是在制定或定制 AI 政策,还是重新评估公司如何建立信任,在生成式 AI 不可预测的情况下,保持客户信心都会变得越来越困难。我们采访了德勤的负责人兼企业信任负责人 Michael Bondar 和 SAP Industries and CX 首席技术官兼数据和 AI 负责人 Shardul Vikram,探讨了企业如何在 AI 时代保持信任。

组织受益于信任

首先,Bondar 表示,每个组织都需要根据其特定需求和客户来定义信任。德勤提供了一些工具来做到这一点,例如一些 德勤的可下载框架

他说,组织希望获得客户的信任,但当人们被问及信任到底意味着什么时,参与讨论信任的人往往会犹豫不决。德勤发现,受到信任的公司财务业绩更佳,股票表现更好,客户忠诚度也更高。

“我们发现,近 80% 的员工都愿意为值得信赖的雇主工作。”邦达说。

维克拉姆将信任定义为相信组织将会为客户的最大利益而采取行动。

当考虑信任时,客户会问自己:“这些服务的正常运行时间是多少?” Vikram 说。“这些服务安全吗?我能否相信特定的合作伙伴能够保证我的数据安全,确保其符合当地和全球法规?”

德勤发现,信任“始于能力和意图的结合,即组织有能力和可靠性来兑现其承诺,”邦达说。“但这些行动背后的理由、动机和原因也与各利益相关方的价值观(和)期望相一致,人性和透明度也融入了这些行动之中。”

为什么组织难以提高信任度?邦达将其归因于“地缘政治动荡”、“社会经济压力”和对新技术的“担忧”。

如果客户不了解生成式人工智能的使用情况,它可能会削弱信任

谈到新技术时,生成式人工智能是首要考虑因素。Bondar 指出,如果你要使用生成式人工智能,它必须强大而可靠,以免降低信任度。

“隐私是关键,”他说。“必须尊重消费者隐私,客户数据必须且只能在规定范围内使用。”

这包括使用人工智能的每个步骤,从训练大型语言模型时的初始数据收集到让消费者选择不以任何方式让人工智能使用他们的数据。

事实上,维克拉姆说,训练生成式人工智能并发现它哪里出了问题可能是删除过时或不相关数据的好时机。

查看:微软推迟了其 AI 召回功能的推出,以寻求更多社区反馈

他建议在采用人工智能的同时,采取以下方法来维持客户的信任:

  • 为员工提供如何安全使用人工智能的培训。重点关注战争游戏练习和媒体素养。牢记贵组织对数据可信度的观念。
  • 在开发或使用生成式 AI 模型时,寻求数据同意和/或 IP 合规性。
  • 对 AI 内容加水印,并在可能的情况下培训员工识别 AI 元数据。
  • 提供您的 AI 模型和功能的完整视图,并透明地展示您使用 AI 的方式。
  • 创建信任中心。信任中心是“组织与其客户之间的数字视觉连接层,您可以在此进行教学,(和)分享最新威胁、最新实践(和)最新用例,我们已经看到,如果以正确的方式实施,这些用例将产生奇效”,Bondar 说道。

CRM 公司可能已经遵守法规——例如《加州隐私权法案》、欧盟的《通用数据保护条例》和美国证券交易委员会的网络披露规则——这些法规也可能对他们使用客户数据和人工智能的方式产生影响。

SAP 如何建立对生成式 AI 产品的信任

Vikram 说:“在 SAP,我们的 DevOps 团队、基础设施团队、安全团队和合规团队都深深植根于每个产品团队之中。这确保了我们每次做出产品决策、每次做出架构决策时,都会从第一天开始就考虑到信任,而不是事后才想到。”

SAP 通过在团队之间建立联系以及制定和遵循公司的道德政策来实现信任。

“我们有一项政策,即除非得到道德委员会的批准,否则我们实际上不能发货,”维克拉姆说。“它得到了质量门的批准……它得到了安全部门的批准。因此,这实际上在运营事务之上增加了一层流程,两者结合起来实际上有助于我们实现信任或加强信任。”

当 SAP 推出自己的生成式 AI 产品时,也会采用同样的政策。

SAP 推出了多款生成式 AI 产品,包括用于 CRM 的 CX AI Toolkit,它可以编写和重写内容、自动执行某些任务并分析企业数据。Vikram 说,当你向 CX AI Toolkit 询问信息时,它始终会显示其来源;这是 SAP 试图赢得使用 AI 产品的客户信任的方式之一。

如何以值得信赖的方式将生成式人工智能融入组织

广义上讲,公司需要将生成性人工智能和可信度纳入其 KPI 之中。

“有了人工智能,尤其是生成式人工智能,客户正在寻找额外的 KPI 或指标,例如:我们如何在从生成式人工智能系统获得的结果中建立信任、透明度和可审计性?” Vikram 说。“这些系统默认或按定义,在高保真度上是非确定性的。

“现在,为了在我的企业应用程序和收入中心使用这些特殊功能,我需要获得基本的信任。至少,我们正在做什么来最大限度地减少幻觉或带来正确的见解?”

Vikram 表示,高管层决策者渴望尝试 AI,但他们希望一次从几个特定用例开始。新 AI 产品推出的速度可能与这种谨慎行事的愿望相冲突。对幻觉或低质量内容的担忧很常见。例如,用于执行法律任务的生成式 AI 显示出“普遍存在的”错误实例。

但维克拉姆表示,组织机构希望尝试人工智能。“过去 15 年来,我一直在开发人工智能应用程序,但从未出现过这种情况。从来没有出现过这种日益增长的兴趣,不仅仅是想要了解更多,还想要利用人工智能做更多事情。”

1719813807
#德勤和 #SAP #的权衡
2024-06-27 19:41:08

Leave a Reply

Your email address will not be published. Required fields are marked *

近期新闻​

编辑精选​