随着人工智能在大学课堂中变得越来越普遍,一些教授正在权衡学生使用它进行研究项目的好处和坏处。
哈利法克斯的一位教授最近发布了一项政策,称他不允许在课堂上使用人工智能,例如大型语言模型 ChatGPT。
大语言模型是一种人工智能,可以根据输入系统的大量书面信息来回答翻译、摘要和其他内容的请求。
达尔豪斯大学教授历史和国际发展研究的阿贾伊·帕拉斯拉姆 (Ajay Parasram) 表示,人工智能是一种工具,可以使发现过程变得更容易,但也可能排除重要信息。
众所周知,人工智能存在偏见,帕拉斯拉姆说,这将搜索结果限制为仅限于同行评审的文章和强化某些知识话语的顶级期刊。
“这是你在背景、边缘看到的所有东西,所有你没有寻找的东西——这就是学习的乐趣和兴奋的一部分,”帕拉斯拉姆告诉加拿大广播公司广播电台 哈利法克斯大街 周三。
“我担心那些正在学习做研究的学生只是为了寻找正确的答案而走得太远了。”
新斯科舍大街11:02达尔豪斯教授表示,学生应避免使用人工智能进行研究
一位大学教授表示,他对在校园中使用人工智能最担心的不是剽窃——他更担心谁的知识被排除或删除。 客座主持人 Preston Mulligan 与 Ajay Parasram 讨论了为什么学生应该避免使用人工智能进行研究。
帕拉斯拉姆表示,如果学生使用人工智能进行研究,这将损害他们自己的学习体验。
他说,他采用这条规则是为了鼓励学生“掌控自己的学习”。
“我认为我们还没有达到可以信任技术来基本上消除大部分批判性思维过程的地步,”他说。
“因为我觉得我们已经非常努力地奋斗,甚至让批判性思维成为我们许多学习的中心,我们现在不能就抛弃它。”
安大略理工大学传播和数字媒体研究教授莎伦·劳里切拉(Sharon Lauricella)采取了不同的方法。
她鼓励学生在课堂上使用大型语言模型,因为它是可用的,而且他们应该知道如何使用它们。
“我给他们打个比方……这些仪器是一种工具,但如果我给某人一把电锯,但不教他们如何使用它,就会有人受伤,对吗?” 劳丽塞拉说道。
“同样的事情也适用于这项技术。人们需要知道如何正确使用它,然后才能安全地使用它。”
Lauricella 表示,像 ChatGPT 这样的大型语言模型经常包含过时或不正确的信息,因此她教学生考虑哪些信息可能没有向他们显示,以及如何重新提出问题以获得他们想要的答案。
她说,它还可以用来总结信息、帮助形成想法和检查作业的语法——她称之为研究项目的书挡。
但她同意 Parasram 的观点,即大语言模型的设计初衷并不是为了提供可信的研究。 仍然需要批判性思维。
“它可以节省我们的时间,但就进行初步研究而言,这只是所有学生都需要学习的基本技能, [ChatGPT] 只是没有能力,”她说。
Lauricella 说,她的学生可以使用大语言模型进行背景研究,但她希望自己的作品是独特且具有反思性的。
她说,如果她的学生确实在工作中使用人工智能,他们就必须披露其用途,并在作业结束时注明。
“我认为,这是学生必须公开的基本原则,他们必须透明地使用它,”她说。
“所以我认为这非常重要。即使该工具没有感知能力,我们也必须在应得的信任处给予信任。”
尽管如此,帕拉斯拉姆表示,提醒学生他们可能会犯错误,这一点很重要。
“他们承受着巨大的压力来获得正确的答案,却没有足够的机会来进行知识发现和快乐的过程,”他说。
“我认为大学课堂为学生提供了一个机会,让他们在训练中发挥作用,你知道吗?犯错误。走出去尝试一个过程,最终发生的事情是学生们创造出绝对令人惊叹的作品。”
2023-09-17 09:00:00
1694982244