2014年2月2日

学生对信息素养指导的评估-挑战

塞思·戈丁(Seth Godin)最近的帖子 不进行任何测量(非常准确) 让我想起了衡量学生学习的挑战。就我自己的教学实践而言,我一直在探索学生对教学的评估(SAT)和学生反馈,以至于如此之多,以至于我最近在Twitter上提出了这个问题,因为我有兴趣听别人说什么在做:


从响应中可以看出,Google Docs和Surveymonkey都是流行的收集工具(有人问我还在用纸吗?),其中一些补充了定期的焦点小组会议或面对面的反馈会议来补充这些常规的会后数据,以解决更深层次的问题。寻求的反馈类型通常包括不同元素的混合,包括:评估会议的有效性,会议的时间安排以及对未来主题/研讨会的建议。捕获学生的联系方式也为后续提供了很好的机会。

我很想听听其他人如何处理他们收集的数据,即他们如何分析和呈现数据,他们使用的数据以及发现的数据 有用 对于。根据我自己的经验,有时会根据过程或习惯来收集数据,并将其归档在年度报告和其他文件(即技术上 用过的),但可能未完全用于支持或告知变更。我们如何使用反馈和评估手段来制定策略,与教职员工建立关系并指导教学实践?第一步,需要查看我们收集的反馈和信息的种类-我们是否收集了正确的信息?

由于我进行的许多会议都是“一次尝试”,所以我觉得跑步的范围很大 测试前和测试后 是有限的(尽管可能)。如果在课后立即进行后测,则问题很可能主要取决于回忆。可以说,对于任何“真正的”学习来说,时间窗口都太小了,因为学习(希望!)是在会议之后的一段持续时间内以自我指导的方式进行的。如果在将来的某个时间点进行测试,则可能会引入其他混淆因素,这可能会妨碍得出有关关系或因果关系的任何有意义的推论。

我认为在很大程度上 定量措施和测试 喜欢 项目航行 太狭窄了,无法完全掌握信息素养等连续能力。能够记住数据库的名称或标准引用中元素的顺序并不能真正告诉我们学生是否真正了解如何有效地查找,评估或使用信息。充其量只是一个时刻的孤立快照,而该快照又可能受到其他变量的影响。

文献 (毛&Latham最近对此进行了研究)表明 学生的自我评估 他们对自己能力的看法往往与现实大相径庭。因此,在很多情况下,要求学生在课后评估自己的信心或能力很可能高估了实际水平。使用 学生满意度测度 不会告诉我们关于学习的任何信息,如果有的话,可能会因学生对讲师的性格,课程中所涉及材料的复杂性或难度或其他因素的理解而产生偏差。

目前,我发现使用 形成性评估技术,例如一分钟的论文和最模糊的重点活动,有助于通知我将来的课程计划和教学方法(实际上, Gewirtz的最新论文 在很大程度上反映了我目前的学生反馈方法的结构)。我用这种 反馈以深入了解与学生良好融合的概念,以及仍然存在挑战并且可能需要采用不同方法的领域。归根结底,我认为混合使用多种措施可能是捕获像学习一样复杂,隐蔽且难以度量的事物的最有效方法。几乎所有反馈在某种程度上都可能有用,我认为我们实际使用收集到的数据的方式同样重要。如果有人找到“正确”的答案,请告诉我:)

2条评论:

  1. 嘘,我之前的评论被吃掉了。 :-(我只是想打个招呼,说我也为此感到挣扎,并且对自我评估和标准化测试也有同样的感觉。实际上,我很快就会在美国图书馆发表有关该主题的专栏文章。've不再痴迷于在信息讨论会上找到衡量学生学习的好方法(正如您所提到的,主要是衡量回忆),并专注于真正为我的教学提供帮助的内容。我目前使用三种方法:1)预先作业,作为形成性评估,并帮助我根据小组的需要量身定制课程; 2)会议纪要,以备将来参考; 3)学生研究论文的主题评估。 #3实际上是真正衡量学生是否能够成功地内化和使用在信息学课程中教过的那些技能的唯一方法,但是它是'这样做确实很耗时,而且'很难隔离馆员'的贡献。我发现阅读和评估学生的工作非常有启发性(我们图书馆员经常这样做'还可以访问),它也确实为我的教学变化以及同事提供了一些信息,这是我在今年夏天经过大一新生研究论文审查后建立的。

    回复删除
  2. Thanks for sharing Meredith - some great ideas there. I totally agree about using rubrics to assess student papers, and RAILS (http://railsontrack.info/rubrics.aspx) is something I'm really interested in - I guess it is something that may be difficult to scale up though with a large volume. Looking forward to the column in AL!

    回复删除