学校需要更多的算法知识,“否则有歧视的风险”

ANPTer 插图:小学里的电脑 NOS Nieuws•vandaag, 06:06 学校和教育工作者需要更多地意识到算法的风险。 荷兰人权研究所在研究了这些算法在学校中的应用后提倡这一点。 此类算法在教育领域的使用规模越来越大。 其中包括自动适应学生水平的教材、独立检查的程序以及检测欺诈者的算法。 荷兰人权研究所强调,这些可以减轻教师的工作,但也存在风险。 例如,学校往往缺乏足够的知识来负责任地使用此类技术。 委员会警告说,这使学生面临不必要的算法歧视风险。 这项研究由 KBA Nijmegen 和 ResearchNed 代表董事会进行,研究了算法目前在教育中的应用情况以及歧视的风险。 该研究项目负责人夏洛特·巴尔达 (Charlotte Baarda) 表示:“令我们震惊的是,算法在教育中的使用规模显着增加。” 据巴尔达称,大约一半的小学现在使用所谓的适应性学习系统。 通过这些类型的系统,教材可以适应学生的行为。 例如,一个在作业中犯了很多错误的学生将来会得到更简单的练习材料。 对于相同的材料来说,难度明显较小的学生将有更困难的问题需要回答。 错误的建议 许多学校使用 Snappet 或 Gynzy 等程序。 使用此类程序的一个风险是学习系统并不总是正确地估计学生的水平。 “例如,考虑一个患有多动症、阅读障碍或自闭症的学生,”巴尔达说。 “这些学生对语言和算术作业给出的答案可能与学习系统训练过的学生组不同。因此,系统可以给这些学生较低的评分,而他们这样做还有另一个原因练习不太好。” 各种其他应用程序也增加了排斥或不平等待遇的风险。 例如,大学和学院使用反欺诈软件。 Baarda:“我们知道这些应用程序对使用第二语言表达自己的学生存在偏见。他们更有可能使用 ChatGPT 进行欺诈。” 此外,研究表明,有移民背景和来自低收入家庭的学生面临的风险更大。 如果系统没有经过适当的测试,它们可能会强化和传播针对这些群体的现有偏见。 这反过来又可能导致歧视和机会不平等。 数字学习系统的使用还可能导致机会不平等,因为并非每个学生都能平等地获得相同的设备、昂贵的软件和快速的互联网连接。 据董事会称,学校之间也存在重大差异。 当然,增加使用这些类型的系统并不是只有缺点。 这可以更深入地了解学生的学习过程。 这使得教师能够提供更有针对性的建议和指导。 该系统还可以减轻教师的大量行政和重复性工作。 “教师保持控制尤为重要。但目前教师没有足够的能力来做到这一点,”巴尔达说。 “我们还担心,现在家长和学生通常很难确定是否出了问题。” 依赖大型科技公司 荷兰人权研究所认为,学校应在平等待遇、隐私、自主和透明度等方面对软件供应商提出要求。 提供的大部分软件来自苹果、谷歌和微软等大型科技公司。 董事会表示,这些公司的影响力可能是决定性的,并使学校依赖其产品。 […]