数字化对意大利选民的影响

AGI – 在下一个选举周末之际,数字可持续性基金会观察站发布了一项调查,探讨了意大利选民对政治倾向、对可持续性的关注和数字化使用之间的相关性。这项分析提供了对选民对我们这个时代的关键问题(例如可持续性、气候变化、PNRR、数字化和人工智能 (AI))的立场的独到见解。 数字可持续性基金会主席 Stefano Epifani 评论道:“让我们明确一点,从上届政治选举的综合投票来看,这不是一份出口民意调查,而是以极其精确的方式追踪了意大利人基于其政治信仰对数字化转型和可持续性主要问题的看法。从这个意义上说,这是一个有用的工具,可以帮助各党派了解选民的观点,既可以制定与之相符的计划,也可以从我们尽职尽责的角度来看待他们,帮助他们了解需要政治家关注并因此引起选民关注的问题。” 可持续性和数字化:感知到的关联是什么? 中左翼选民对可持续发展以及技术作为推动因素的作用表现出强烈的偏见,其中 84.4% 的选民认识到技术在实现可持续发展目标方面的关键作用。这一数字高于中右翼选民的 76.2%。五星运动以 80.7% 的选民认同这一愿景而脱颖而出,而第三极紧随其后,比例为 79.8%。然而,弃权者表现出较低的认识,只有 72.6% 的人理解技术在可持续发展中的重要性。但这一切在多大程度上转化为行为?中左翼选民更有可能将数字技术作为可持续发展的工具,64.8% 的人使用数字工具进行可持续实践。相比之下,只有 31.5% 的中右翼选民可持续地采用数字技术。这些数据表明,不同联盟的选民在使用技术实现可持续发展方面存在显著分歧。 气候变化:真的紧迫吗? 不同政党的选民对气候变化的看法截然不同。79.4% 的中左翼选民认为气候变化是当务之急,而中右翼选民只有 56.3%。这一差距凸显了政治优先事项的显著差异。五星运动也强调了问题的紧迫性,69.7% 的选民认为气候变化是一个需要立即解决的问题。相反,第三极则更加分裂:只有 51.4% 的人认为气候变化是一个紧迫的问题,而令人担忧的是,39.9% 的人认为仍有时间解决这个问题。弃权者表明 62.9% 的人表示担忧,但 13.1% 的人甚至认为这是一个虚假的问题。 人工智能:机遇与担忧 人工智能既是一个巨大的机遇,也是威胁。65.3% 的中左翼选民认为人工智能将对经济和社会产生积极影响,而中右翼选民的这一比例为 62.1%。不过,中右翼(60.1%)对人工智能可能摧毁就业的担忧低于中左翼(63.3%)。五星运动选民对权力集中在数字平台手中表现出高度担忧,71.4% 的人认为人工智能对民主构成威胁,略高于中右翼的 67.8% 和中左翼的 71%。 PNRR:这个未知 国家复苏与恢复计划 (PNRR) 是疫情后经济复苏的关键工具之一,但不同选民对该计划的了解程度存在很大差异。中左翼选民是最了解该计划的,54.1% 的选民表示他们对 PNRR 有一定了解或非常了解。相反,只有 45.9% 的中右翼选民表示对该计划有深入了解。这一差异表明两个联盟对可持续经济复苏计划的关注程度不同。五星运动选民的信息水平很高,53.8% 的选民表示对 PNRR 很了解,而第三极党的了解程度高于其他政党,67.4% 的选民对该计划有一定了解或非常了解。然而,弃权者了解最少,只有 34.4% […]

互动是否改善了,但信息总是正确的吗?

AGI – 生成式人工智能 (AI) 工具(例如 Chat-GPT)的发展标志着我们与机器交互方式的一个重要转折点。交互的流畅性、理解上下文以及生成连贯自然的响应的能力,直到几年前都还只是科幻小说中的水平。然而,虽然这些功能极大地改善了用户体验,但它们也引发了有关所生成信息准确性的核心问题。 全新 Chat-GPT 4o 的交互质量确实令人印象深刻。用户体验到的界面越来越引人入胜且直观,能够回答问题、提出建议、撰写文本,甚至参与复杂的对话。这种流畅性是尖端技术的结果,该技术基于预先在大量数据集上训练的语言模型。这些模型使人工智能能够以惊人的精度模仿人类语言,创造出一种与有血有肉的对话者通常难以区分的互动体验。 然而,我们不能犯一个错误:将交互质量的提高与所提供信息的正确性的提高混为一谈。 像 Chat-GPT 这样的生成式 AI 模型对其响应的真假没有内在的理解。 他们使用接受过训练的数据,根据统计和概率模型生成内容。 这意味着,尽管他们可以提供连贯且可信的答案,但他们没有能力独立验证所提供信息的准确性。 矛盾的是,高质量的交互可能会降低用户对验证信息的必要性的认识。 我们的自然倾向是将良好的沟通与高度的可靠性联系起来。 当我们面对一个似乎能够以人类方式理解和响应的界面时,这种现象会被放大。 因此,与 Chat-GPT 4o 等系统交互的流动性和质量可能会导致用户暂停其批判性判断,并接受生成的答案作为事实。 在维基百科出现的时候,人们认为所提供的结果是人类互动的结果。 通过搜索引擎,您可以查看来源。 使用生成式人工智能,生成的文本在来源不透明的情况下,可能会被视为真正的神谕。 这种动态带来了巨大的风险:在一个获取准确可靠信息至关重要的时代,通过生成式人工智能工具传达错误信息的可能性令人担忧。 用户很容易被答案误导,这些答案虽然措辞良好,但可能包含不准确、偏见甚至彻头彻尾的谎言。 提高交互质量会降低人们对验证必要性的认知,从而产生危险的准确性错觉。 为了减轻这些风险,用户必须保持批判性和认识性的态度。 他们应该将人工智能的反应视为起点,而不是最终的结论。 验证来源、比较信息和应用批判性思维是驾驭人工智能生成的海量数据不可或缺的工具。 在这方面,生产这些系统的公司的作用至关重要:他们负责实施提高透明度的机制,提供有关能力领域和所生成信息限制的明确指示。 人工智能响应应附有警告,提醒用户验证信息的重要性。 将生成式人工智能系统与经过验证的数据库和权威来源集成是必不可少的,但不是决定性的一步。 虽然这种方法确实可以提高响应的准确性,但它并不能消除人工监督和严格验证文化的需要。 必须教育用户了解人工智能,无论多么先进,都是为人类知识服务的工具,而不是替代品。 互动的流畅性和答案的质量绝不能让我们忘记,辨别真假的能力仍然是人类的特权。只有通过自觉和批判性地使用这些工具,我们才能确保它们仍然是寻求知识的强大盟友,而不是错误信息的来源。 1716485141 #互动是否改善了但信息总是正确的吗 2024-05-21 13:24:38