雅加达(ANTARA)——Couchbase 研究人员评估,公司需要降低使用人工智能或
(AI) 往往有偏见,会降低所生产产品的质量。
Couchbase 副解决方案工程师 Aaron Schenider 周四在一份声明中表示:“挑战在于公司如何减少其产品中的这些偏见,并避免将有害人工智能模型引入生产的风险。”
据他介绍,人工智能通过 ChatGPT 的用途之一仍然是根据性别和肤色来判断人类。 这就是为什么给出的任何回应都将是有风险的、歧视性的、煽动性的,并且会损害实际使用人工智能的企业的声誉。
另请阅读:AI 被认为对业务具有潜力和威胁
他还保证,虽然这不是人工智能的错,而完全在于技术接收到的输入,但开发人员必须及早停止偏见和错误。
“然而,这个难题实际上并不是什么新鲜事。当人工智能模型通过数据集显示其人类作者的偏见时,就会出现人工智能偏见。你付出的就是你得到的回报,”亚伦说。
他继续说,这样的情况让科技公司在发布复杂的 AI 模型时三思而后行,因为那将意味着将一个不可预测的潘多拉魔盒交给用户。
该公司的举动也可以被认为是一个非常冒险的举动,因为他们无法控制 AI 输出。 任何不可靠和淫秽的回应都会严重损害公司的声誉。
因此,为了让技术保持良好的力量,用户必须能够构建无偏见的人工智能模型。 通过使用实时事件处理解决方案,研究人员可以利用用户定义的业务逻辑自动从 AI 数据集中删除不需要的信息。
“此举将需要一个具有内存优先架构的云解决方案,该架构可提供无与伦比的性能并使 SQL++ 查询快速高效。所有项目还将受益于 NoSQL 云数据库的灵活性和潜力,”他说。
最终,人工智能基于机器学习模型,以及用于创建预测系统的经过充分研究的模型和技术。 ChatGPT 和 DALL-E 等人工智能系统需要从互联网上吸收大量输入,然后才能匹配文本和响应之间的关系。
此外,还必须使用其他语言工具和模型来帮助 AI 预测每个响应中使用的单词。
此前,一项关于 ChatGPT 的简短研究表明,OpenAI 非常清楚人工智能的偏见,并本能地为人工智能添加边界,以便能够过滤掉攻击性、种族主义甚至性别歧视的评论。
这些限制尽可能简单,以防止 ChatGPT 生成不适当的响应。 还实施了禁止的关键字、短语和指南列表,以防止 AI 模型变得不稳定和使用禁止的内容。
另请阅读:Meta 计划将 AI 添加到 Instagram、Whatsapp 和 Messenger
另请阅读:称AI为智能人,谷歌解雇高级工程师
另请阅读:Fita 通过 AI 技术引入运动功能