原标题:智慧课堂更要规范(云中漫笔) 人工智能在教育领域正加速落地。在巴西,已经有不少学生在家里或者巴士上上课。只要他们拿起手机,登录特定的教育软件,就可以在任何地方开始上课。 在中国,“人工智能+教育”也正刮起风潮,“刷脸点名”“课堂实时监控”等技术广泛应用。比如,“智慧课堂行为管理系统”通过“阅读”学生的表情来分析学生上课状态,监督课堂教学;人工智能分析评估系统,进行课堂实时表情分析,精确判断学生学习理解程度等等。 这种方式对家长更好地了解学生教育情况多有裨益。然而,其争议也显而易见——学生的隐私容易被侵犯,教师的教育自主权也受到严重威胁。 事实上,人工智能在教育课堂的争议本质上是技术带来的“透明化”所引起的担忧。有时我们需要借助技术缩短人与人之间的距离,让信息可以更快,但不能“裸奔”。比如人工智能进课堂带来的学生隐私保护问题。 如今,不仅是在课堂,人工智能时代,任何一个生活场景中,人和各类物品的各种信息都会转化电子信号被记录和获取,隐私不再限于公民过去在物理空间或是虚拟空间中留下的个人敏感信息,而是包括了公民在一切联网状态、在任何移动化场景中产生的所有个人信息。 正因如此,人工智能所引发的数据安全和隐私问题也空前受到关注。那么,人工智能时代如何严守边界?谷歌给出的答案是:在人工智能开发应用中,坚持包括公平、安全、透明、隐私保护等在内的7个准则。微软也提出6个道德基本准则,包括公平、包容、透明、负责、可靠与安全、隐私与保密。这些准则,在智慧教育领域显然也适用。 中国拥有目前全世界最大的人工智能市场。如何调和发展与安全之间的关系?近日发布的《未来基石——人工智能的社会角色与伦理》报告里,有这样一句话,“如果我们决心要利用人工智能带来的无限机遇,最好在冲进未知之门之前给这辆汽车装上刹车,让它真正能行稳致远。这个刹车就是伦理规范和公共政策准则”。 从这个角度而言,有关“智慧课堂”如何严守边界、保护学生和教师的议题,不仅仅是个教育问题,而是人工智能时代,如何更好发展智慧产业的经济问题和如何更好严守“隐私”边界的社会问题。 |