研究人员:企业需要降低使用人工智能的风险

雅加达(ANTARA)——Couchbase 研究人员评估,公司需要降低使用人工智能或

(AI) 往往有偏见,会降低所生产产品的质量。

Couchbase 副解决方案工程师 Aaron Schenider 周四在一份声明中表示:“挑战在于公司如何减少其产品中的这些偏见,并避免将有害人工智能模型引入生产的风险。”

据他介绍,人工智能通过 ChatGPT 的用途之一仍然是根据性别和肤色来判断人类。 这就是为什么给出的任何回应都将是有风险的、歧视性的、煽动性的,并且会损害实际使用人工智能的企业的声誉。

另请阅读:AI 被认为对业务具有潜力和威胁

他还保证,虽然这不是人工智能的错,而完全在于技术接收到的输入,但开发人员必须及早停止偏见和错误。

“然而,这个难题实际上并不是什么新鲜事。当人工智能模型通过数据集显示其人类作者的偏见时,就会出现人工智能偏见。你付出的就是你得到的回报,”亚伦说。

他继续说,这样的情况让科技公司在发布复杂的 AI 模型时三思而后行,因为那将意味着将一个不可预测的潘多拉魔盒交给用户。

该公司的举动也可以被认为是一个非常冒险的举动,因为他们无法控制 AI 输出。 任何不可靠和淫秽的回应都会严重损害公司的声誉。

因此,为了让技术保持良好的力量,用户必须能够构建无偏见的人工智能模型。 通过使用实时事件处理解决方案,研究人员可以利用用户定义的业务逻辑自动从 AI 数据集中删除不需要的信息。

“此举将需要一个具有内存优先架构的云解决方案,该架构可提供无与伦比的性能并使 SQL++ 查询快速高效。所有项目还将受益于 NoSQL 云数据库的灵活性和潜力,”他说。

最终,人工智能基于机器学习模型,以及用于创建预测系统的经过充分研究的模型和技术。 ChatGPT 和 DALL-E 等人工智能系统需要从互联网上吸收大量输入,然后才能匹配文本和响应之间的关系。

此外,还必须使用其他语言工具和模型来帮助 AI 预测每个响应中使用的单词。

此前,一项关于 ChatGPT 的简短研究表明,OpenAI 非常清楚人工智能的偏见,并本能地为人工智能添加边界,以便能够过滤掉攻击性、种族主义甚至性别歧视的评论。

这些限制尽可能简单,以防止 ChatGPT 生成不适当的响应。 还实施了禁止的关键字、短语和指南列表,以防止 AI 模型变得不稳定和使用禁止的内容。

另请阅读:Meta 计划将 AI 添加到 Instagram、Whatsapp 和 Messenger

另请阅读:称AI为智能人,谷歌解雇高级工程师

另请阅读:Fita 通过 AI 技术引入运动功能

Never miss any important news. Subscribe to our newsletter.

Leave a Reply

Your email address will not be published. Required fields are marked *

近期新闻​

编辑精选​