它是如何运作的、好处和危险

简单来说什么是生成式人工智能? 生成式人工智能是一种人工智能技术,广泛描述了能够生成文本、图像、代码或其他类型内容的机器学习系统,通常是响应用户输入的提示。 生成式人工智能模型越来越多地被纳入在线工具和聊天机器人中,这些工具和聊天机器人允许用户在输入字段中输入问题或指令,然后人工智能模型将生成类似人类的响应。 下载:来自 TechRepublic Premium 的生成式 AI 指南。 生成式人工智能如何运作? 生成式人工智能使用称为深度学习的计算过程来分析大量数据中的模式,然后复制该数据以创建看似人类生成的新数据。 它通过采用神经网络来实现这一点,神经网络是一种机器学习过程,大致受到人类大脑随着时间的推移处理、解释和学习信息的方式的启发。 举个例子,如果你将大量的小说写作输入到生成式人工智能模型中,它最终将获得根据其所训练的文献来制作故事或故事元素的能力。 这是因为为生成式人工智能模型提供动力的机器学习算法从输入的信息中学习——就小说而言,这将包括情节结构、人物、主题和其他叙事手段等元素。 随着时间的推移,生成式人工智能模型变得越来越复杂——模型训练和生成的数据越多,其输出就越有说服力,也就越像人类。 生成式人工智能的例子 近年来,生成式人工智能的普及呈爆炸式增长,这在很大程度上要归功于 OpenAI 的 ChatGPT 和 DALL-E 模型的到来,它们将可用的人工智能工具交到了消费者手中。 从那时起,包括谷歌、微软、亚马逊和 Meta 在内的大型科技公司都推出了自己的生成式人工智能工具,以利用该技术的快速普及。 尽管文本和图像生成模型可以说是最著名的,但现在存在各种生成式人工智能工具。 生成式人工智能模型通常依赖于用户向引擎输入提示,引导引擎产生某种所需的输出,无论是文本、图像、视频还是一段音乐,尽管情况并非总是如此。 生成式人工智能模型的示例包括: 聊天GPT: OpenAI 开发的人工智能语言模型,可以回答问题并根据文本提示生成类似人类的响应。 从-E 3: OpenAI 的另一个 AI 模型,可以根据文本提示创建图像和艺术品。 Google Gemini: Gemini 以前称为 Bard,是 Google 的生成式 AI 聊天机器人,也是 ChatGPT 的竞争对手。 它经过 PaLM 大语言模型的训练,可以回答问题并根据提示生成文本。 克劳德2.1: Anthropic 的 […]

英国官员称伊朗和俄罗斯可能利用 Deepfake 视频扰乱英国和美国选举

随着人工智能深度假货的出现,世界各地的选举正在发生变化。 在印度,地方选举中已经出现了这种迹象,即利用已故领导人的声音来影响选民,而英国人民却在关注这种不可避免的影响。 A Rishi Sunak 政府最高部长 警告称,人工智能生成的深度伪造视频可能会被人们用来影响即将到来的大选。 英国内政大臣詹姆斯·克莱弗利 (James Cleverly) 在向 IT 专家和硅谷老板发表讲话时强调,人工智能深度造假可能会在 2024 年大选前掀起一场风暴。 据 Cleverly 称,深度造假视频已经出现并已在世界各地发挥作用,扰乱了选举。 内政大臣警告社交媒体用户不要被社交媒体平台上人工智能生成的视频所左右。 巧妙地向俄罗斯和伊朗解释了可能的情况,因为这些英国对手可能试图扰乱英国选举。 然而,这可能不是以英国为中心的攻击,因为世界上一半的国家将在 2024 年举行选举,包括欧盟、美国和英国。 内政大臣告诉《泰晤士报》,人工智能生成的内容正在加剧“思想和政策之战”,并且它正在“不断变化和扩大的数字领域”发生。 巧妙地呼吁在人工智能生成的内容(例如深度伪造内容)中为用户提供透明度和保障。 英国内政大臣表示:“有关数字内容和数字内容来源的问题与有关调度箱、新闻编辑室或广告牌广告的内容和来源的问题同样重要。” 随着工党和保守党联合起来反对,其他英国政治家也跨越党派界限表达了对人工智能深度假货的担忧。 随着选举临近,伦敦市长萨迪克·汗也对深度造假敲响了警钟。 2023 年初,一段人工智能生成的视频在媒体上流传,其中萨迪克·汗 (Sadiq Khan) 对停战日之前的抗议活动发表了评论。 伦敦市长表示,目前有关深度造假的法规并不能有效控制它。 类似的事情 印度发生了,南部特伦甘纳邦地方立法选举的选民看到了执政党 Bharat Rastra Samiti 的 KT Rama Rao 的一段 7 秒视频,呼吁为反对党国大党投票。 反对党在 Twitter 帖子上分享了这段 Deepfake 视频,并在 WhatsApp 群组中传播,该党 X 官方账户上的浏览量达到了 […]

人工智能将在学术界发挥什么作用? 这是专家的说法

随着人工智能世界的不断发展,它对教育等关键领域的影响也在不断发展。 尽管人们担心人工智能将在未来几年取代近一半的现代劳动力,但其他人也指出,拥抱人工智能可能会带来指数级增长。 为了更好地了解人工智能当前和未来在学术界的作用,英国《国际商业时报》采访了目前在伦敦国王学院从事人工智能研究、教学和学习的主题专家。 Caitlin Bentley 博士是信息学系人工智能教育领域的研究员和讲师。 她表示,学术界的人工智能正处于“令人难以置信的变化时刻”,因为它的作用因学科、大学和国家而异。 对于计算机科学、医学和工程等某些研究领域,人工智能一段时间以来一直是教育的核心方面。 她说,现在最大的变化是由于一种称为生成人工智能的特定技术,利用数据产生新的原创内容,这种技术在没有经过深思熟虑的情况下就被引入到教育中。 她强调,学生使用 ChatGPT 等生成式人工智能技术的主要问题是他们可以生成课程作业和论文。 但本特利表示,生成式人工智能除了作弊之外还有很多用途,例如支持研究过程、作为个人导师,甚至在某些情况下作为朋友。 在很大程度上,人工智能教育的重点是向学生介绍这项技术、它的作用以及如何使用它。 然而,随着关于某些人工智能技术规模化相关风险的讨论越来越多,这种情况正在发生变化。 Bentley 教授专业实践课程,旨在通过思考技术对现实世界产生的影响类型,帮助计算机科学家更负责任地设计和开发技术。 虽然计算机科学通常侧重于数学、算法、数据结构和理论框架的使用,但她的方法是始终将技术置于上下文中。 她通过鼓励学生思考特定技术从何而来、该技术的开发者是谁以及那些可能被排除在开发过程之外的人来做到这一点。 她还让学生从不同的角度看待技术,例如用户如何根据自己的需求以不同的方式使用技术。 她表示,评估人工智能的影响很重要,尤其是其使用带来的意外后果。 “我不仅教人们如何使用它 [AI] 但也更广泛地教导他们以及由此产生的问题,特别是在社会不平等和环境影响方面,”本特利指出。 由于 ChatGPT 取材于互联网上的现有信息,而互联网上的信息主要以美国英语来源为主,因此它往往存在文化偏见。 在一种情况下,人工智能生成的响应做出了一种性别刻板的假设,即编码员不是女性。 她还举了一个例子,有人开始依赖 ChatGPT 来写电子邮件,却不明白每次使用该技术都会造成碳排放。 如果没有这种背景,他们就无法做出明智的选择来更负责任地使用该技术。 本特利说:“我们正在考虑对就业的影响,但我们没有考虑环境成本。”他建议这些技术有可行的替代方案,对环境的危害较小,包括多花几分钟时间自己起草电子邮件。 在思考学术界负责任地使用人工智能时,本特利指出,伦敦国王学院的方法是让学生清楚何时以及如何使用人工智能。 例如,大学开发了几种不同的模型,院系和讲师可以根据自己的需要采用。 有些人可能会告诉学生他们不允许使用它,而另一些人可能会在作业中添加反思部分,要求学生思考使用人工智能如何支持他们的学习。 有些可能允许使用人工智能进行研究,但不允许撰写作业。 她说,大学对这些工具如何支持学习持开放态度,特别是因为它们将改变许多职业,因此必须知道如何使用它们。 为了让学生为人工智能日益驱动的世界做好准备,Bentley 认为最重要的教学技能是批判性思维。 学生必须能够质疑他们在使用人工智能技术时获得的输出,验证所提供的信息,并发现可能存在偏见的结果。 她说,大学应该培养能够思考如何解决复杂问题的专业人员,这是一项需要创造力和协作的多学科努力。 此外,她表示,利用人工智能更好地理解它及其问题,是我们整个社会引导技术朝着更有利于公共利益的方向发展的唯一途径。 Bentley 表示,在培训大学外人员负责任地使用人工智能方面,英国目前做得还不够,部分原因是企业不想再投资于员工培训。 她认为,大学可以通过向那些已经进入职场的人提供较短的课程来解决这一差距,以帮助创造公平的竞争环境。 展望未来,本特利博士有兴趣开发实用的解决方案,帮助边缘化社区的人们理解和参与人工智能,以减少该技术对现有不平等的影响。 Modest Lungociu 目前是计算机科学专业的硕士生。 他表示,自几年前本科学习以来,人工智能的使用发生了很大变化,尤其是随着 ChatGPT 的发布。 他注意到 ChatGPT […]

开源人工智能对我们有好处

这是一篇客座文章。 有关开源人工智能争论的另一面,请参阅最近的客座文章“开源人工智能非常危险。“ 一场人工智能领域的文化战争正在那些认为默认情况下应该限制或不限制模型开发的人们之间展开。 到 2024 年,这种冲突将蔓延到法律领域,并对人工智能开放创新的未来产生重大影响。 最受质疑的人工智能系统是当今的生成式人工智能模型,它们已经学会了如何阅读、写作、绘画、制作动画和说话,并且可以用于为诸如 聊天GPT。 与关于监管人工智能的争论交织在一起的是关于开放模型(可以由其他开发人员使用、修改和共享的模型)的风险以及发布其独特设置或“权重”的明智之举的激烈且持续的分歧。对公众。 自从推出像 骆驼, 鹘, 米斯特拉尔, 和 稳定扩散 家庭,批评家们敦促将其他类似的精灵留在瓶子里。 “开源软件和开放数据可以成为推动科学发展的非凡资源,” 写了 两名美国参议员 元 (Llama 的创建者),但是“可以更有效地更新和控制集中式人工智能模型,以防止和应对滥用行为。” 智囊团和闭源公司 被称为 让人工智能的发展像核研究一样受到监管,限制谁可以开发最强大的人工智能模型。 上个月,一位评论员 争论 在 IEEE 光谱 “开源人工智能是独一无二的危险”,呼应了对人工智能模型进行注册和许可的呼吁。 这场争论在最近的人工智能监管努力中浮现出来。 首先,欧盟最终确定了 人工智能法案 管理人工智能系统的开发和部署。 其中最受争议的条款之一是是否将这些规则应用于“免费和开源”模型。 其次,继拜登总统之后 行政命令 在人工智能方面,美国政府已经开始 强制报告 来自某些人工智能模型的开发者,并将很快推出 公众调查 纳入“广泛可用”人工智能模型的监管。 无论我们的政府选择如何监管人工智能,我们都需要促进多元化的人工智能生态系统:从构建专有超级智能的大公司到试验开放技术的日常修补匠。 开放模型是人工智能草根创新的基石。 我担任 公共政策主管 为了 稳定性人工智能 (Stable Diffusion 的制作者),我与一个由热情的研究人员组成的小团队合作,他们共享被世界各地数百万开发人员和创作者自由使用的媒体和语言模型。 我很担心,因为草根创新特别容易受到政府日益严格的限制的影响。 这些法规可能会限制基础研究和合作,从而侵蚀开放开发文化,而正是开放开发文化使得人工智能成为可能。 开放模式促进透明度和竞争 […]

新的人工智能监管白皮书谈到让英国经济为未来人工智能风险做好准备

在采取行动的压力下 AI安全相关问题英国政府发布了人工智能监管白皮书咨询,采取了更严格人工智能监管的大胆举措。 这 科学、创新及科技部宣布 2 月 6 日,新的人工智能监管白皮书将帮助英国监管机构提供超过 1 亿英镑的资金,以推进人工智能领域的研究和创新,特别是在医疗保健和药物发现领域。 作为该计划的一部分,苏纳克政府已要求英国监管机构在 4 月底之前发布一项应对人工智能风险和机遇的行动计划。 通过人工智能监管白皮书,英国政府寻求为通用人工智能系统引入未来有针对性的具有法律约束力的要求。 此举将有助于创建灵活的人工智能监管,并得到英国监管机构的支持,并拥有应对人工智能风险所需的技能和工具。 作为装备英国监管机构计划的一部分,英国监管机构已宣布拨款 1000 万英镑来提高他们的技能,以便他们能够应对风险并利用人工智能技术的机遇。 政府表示,从医疗保健、电信、金融到教育领域,这笔资金对于开发监控人工智能风险和欺诈的工具至关重要,例如开发监控人工智能系统的技术工具。 人工智能行业已经面临着压力,因为许多监管机构已经开始采取严格行动,例如信息专员办公室针对人工智能系统发布的最新数据保护法指南。 这包括人工智能系统中的个人数据保护和公平性。 如果人工智能系统不遵守法律,该指南将要求组织承担责任。 现在,苏纳克政府正在加强对人工智能的防范,进一步为英国监管机构提供详细的人工智能监管白皮书,使他们能够评估新出现的风险,并为他们提供创新和解决问题的空间。 为了创建一个灵活的人工智能监管框架来帮助英国企业并提高透明度,英国政府敦促 Ofcom 和竞争与市场管理局 (CMA) 等英国监管机构在 4 月 30 日之前发布应对人工智能威胁的展望。这些组织必须强调他们专业领域的人工智能风险和解决这些问题的技能,以及来年如何监管人工智能的详细计划。 人工智能监管白皮书阐述了英国在这一新兴领域应对监管的方式,确保其在人工智能安全方面的领先地位,以减轻阻碍创新的企业负担。 政府认为,随着人工智能安全、创新、人工智能研究和评估成为中心舞台,这种方法将帮助英国比其他国家拥有竞争优势。 英国政府明确表示,随着人工智能的快速发展,为尚未被充分理解的新型欺诈和骗局让路,英国政府将致力于制定有效的立法,而不是过时的快速修复解决方案。 英国监管机构有针对性地解决人工智能风险,是政府针对人工智能监管采取的基于情境的方法。 这是在 网络安全法正式生效 最近旨在保护英国儿童和英国消费者免受网络犯罪的侵害。 强有力的人工智能监管可以增强英国企业和公共服务的能力? 英国科学、创新和技术大臣米歇尔·多尼兰在谈到人工智能监管白皮书时表示:“英国在人工智能监管方面的创新方法使我们在人工智能安全和人工智能发展方面都处于世界领先地位。” 多尼兰强调,人工智能有潜力改变英国的公共服务,通过释放“先进技能和技术”来帮助英国经济增长,为“未来的英国经济”提供动力,并帮助治疗痴呆症和癌症等不治之症。 多尼兰表示:“通过采取灵活的、针对具体行业的方法,我们已经开始立即应对风险,这反过来又为英国成为世界上首批安全地受益于人工智能的国家之一铺平了道路。”添加。 技术大臣还宣布,已拨款 9000 万英镑,通过美英负责任的人工智能合作伙伴关系在全国各地创建九个研究中心。 这些中心将协助人工智能专家发展英国在数学、化学和医疗保健等各个领域的人工智能专业知识。 艺术与人文研究委员会 (AHRC) 已拨款约 200 万英镑用于警务、教育和创意产业的人工智能研究。 这是 AHRC 弥合负责任的人工智能鸿沟 […]

如果生成式人工智能能够公平竞争,为什么要抄袭创意人员呢?

近年来,人工智能伦理学家的工作很艰难。 开发生成式人工智能工具的工程师们一直在竞相前进,相互竞争以创建具有更令人惊叹的能力的模型,这让监管机构和伦理学家都对已经完成的工作发表评论。 致力于改变这种范式的人之一是 Alice Xiang,人工智能道德全球负责人 索尼。 向先生致力于在索尼内部和更大的人工智能社区中创建道德优先的人工智能开发流程。 她与 光谱 关于从数据入手,以及一半业务从事内容创作的索尼是否可以在构建新型生成人工智能方面发挥作用。 Alice Xiang on… 负责任的数据收集 她在索尼的工作 新人工智能法规的影响 以创作者为中心的生成式人工智能 负责任的数据收集 IEEE 频谱: 你的工作起源是什么 负责任的数据收集? 在这项工作中,您为什么特别关注计算机视觉? Alice Xiang: 近年来,人们越来越意识到从整个生命周期的角度看待人工智能发展的重要性,而不仅仅是在终点考虑人工智能伦理问题。 这也是我们在公司内部进行人工智能道德评估时在实践中看到的:如果只看最后,有多少人工智能道德问题确实很难解决。 许多问题都源于数据收集过程,例如同意、隐私、公平、知识产权等问题。 许多人工智能研究人员没有足够的能力来思考这些问题。 当他们在学校时,这并不是他们课程中必然包含的内容。 按照 生成式人工智能,人们越来越认识到训练数据的重要性,而不仅仅是不需要仔细考虑数据来自哪里就可以从架子上拿下来的东西。 我们真的很想探索从业者应该做什么以及数据管理的最佳实践是什么。 以人为中心的计算机视觉可以说是对此最敏感的领域之一,因为你拥有生物识别信息。 光谱: “以人为中心的计算机视觉”一词:这意味着 计算机视觉 识别人脸或人体的系统? 翔: 由于我们关注数据层,因此我们通常定义它的方式是任何类型 [computer vision] 涉及人类的数据。 因此,这最终将包括更广泛的人工智能。 例如,如果您想创建一个识别对象的模型 – 对象存在于有人类的世界中,因此您可能希望数据中包含人类,即使这不是主要焦点。 这种技术在高风险和低风险环境中都非常普遍。 “许多人工智能研究人员没有足够的能力来思考这些问题。 当他们在学校时,这并不是他们课程中必然包含的内容。” ——爱丽丝·项,索尼 光谱: 您对隐私和公平方面的最佳实践有哪些发现? 翔: 当前以人为中心的计算机视觉领域的基线并不好。 […]