内容正文:
同学们,大家好。上节课我们了解了AI在生活中的应用,体验了它带来的便利和变化。今天我们将继续出发,来到第三课AI视觉之旅项目主题。智慧校园的AI视觉之旅同样从以下六个模块展开。人工智能技术正在以前所未有的速度渗透到我们生活的方方面面。本项目中我们将聚焦两个学习目标,一是感知人脸识别技术及其应用,探索机器通过面孔识别身份。二是感知计算机视觉技术及其应用,了解计算机用眼睛认知世界。大家在日常生活中有体验过人脸信息的录入吗?通常包含以下提示动作,眨眼、张嘴、向左摇头、向右摇头。我们先来看看老师用AI生成的动画风格的眨眼和现实风格的眨眼视频演示。AI生成的眨眼演示动画风格视频AI生成的眨眼演示现实风格视频。再来看看AI生成的动画风格的张嘴和现实风格的张嘴视频演示单生成的张嘴演示动画风格视频,AI生成的张嘴演示现实风格视频。同学们课后自己试试用AI视频生成软件生成向左摇头、向右摇头进行人脸信息录入时的动作视频。刚才我们感知了人脸信息录入的过程,那么回到校园中,校园里是不是也藏着很多AI眼睛呢?现在请大家思考并列举在校园哪些场景里可能应用到了AI眼睛,或者说应用到了人脸识别。那么这些AI眼睛具体是怎样帮助我们的校园管理变得更加智能高效的呢?让我们一起走进智慧校园,看看具体的应用案例。在智慧校园中,人脸识别门禁系统就像是校园里的智能卫士。每天我们进出校园时,只需要面对摄像头刷脸系统就能迅速准确的识别出我们的身份。只有经过授权的学生和教职员工才能顺利通行,外来人员则无法随意进入,从而有效保障了校园的安全。相比传统的刷卡打卡方式,AI人脸识别不仅更方便,还能减少接触,提升通行效率,真正做到了刷脸通行智能又高效。除了校园大门,AI眼睛在人脸识别方面还有更多应用在校园内部的重要场所,比如实验室、机房又是如何保障安全的呢?让我们接着来看人脸识别安防在智慧校园里,一些关键场所,如科学实验室、计算机机房,通常存放着珍贵的仪器设备或重要的资料,为了防止无关人员随意进出,人脸识别门禁系统再次发挥了作用,只有被授权的老师或学生才能通过刷脸验证顺利进入这些区域。这种方式不仅提升了安防等级,还能在有突发情况时迅速追溯出入记录,有效保护了设备安全和数据资料安全。可以说,人脸识别技术让校园的重点区域管理更加科学严密。以前大家借书还书时,有没有发生忘记带借阅卡的情况呢?人脸识别技术现在也帮上了大忙。在智慧校园的图书馆里,人脸识别系统让借阅流程变得更加快捷方便,学生们无需再随身携带借书卡或者学生证,只需要在借阅机前刷一下脸,就可以轻松完成借书或者归还操作。不仅如此,系统还能自动记录每位学生的借阅信息,帮助图书馆更好地管理藏书,同时也能统计出学生的阅读偏好,这不仅提升了借阅体验,也让图书资源的利用率更高。一说到人脸识别技术,我们先来看看人是怎么对人脸进行识别的。通过一个课堂互动小游戏猜五官感知下,比如右边拆分的五官图形中,哪一个是中间小男孩的嘴巴,我们通过眼睛一下就圈出来了。人类对他人面部的识别主要依靠眼睛的生理结构以及大脑的视觉神经系统,那问题来了,既然我们有眼睛,机器又是通过什么来采集图像信息的呢?机器的眼睛其实就是摄像头,摄像头能够采集人的面部图像信息,相当于机器看见了我们的五官特征。无论是从侧面看、正面看,还是不同角度,摄像头都可以抓取关键的面部特征。接下来就让我们一起揭开人脸识别技术的秘密。人脸识别是基于人的脸部特征信息进行身份识别的一种生物识别技术,人脸识别技术让机器具备了认人的能力,这是智能化应用中非常重要的一项技术。既然人脸识别技术是通过提取我们的面部特征来确认身份,那么你有没有想过一个有趣的问题,为什么别人不能通过自己的人脸来解锁我的手机呢?其实人脸识别背后靠的是一套非常精细的识别流程,整个识别过程通常分为四个主要步骤,摄像头采集,首先设备通过摄像头拍摄下你的面部图像,就像拍照一样,捕捉最关键的面部信息。特征提取系统在照片中提取出你的独特特征,比如眼睛的位置、鼻子的形状、面部的轮廓曲线等。数字化处理提取完特征后,这些信息会被转化成一组数字编码,形成独一无二的面部身份证匹配识别。最后系统会把你当前的面部信息和数据库里存储的数据进行比对。只有当两者高度吻合时,识别才会通过确保安全。刚才我们了解了人脸识别的特征,那么回到一个很现实的问题,在真实应用中,人脸识别真的能完全取代密码和传统的身份验证方式吗?我们就带着这个思考来完成一个小活动。请大家思考人脸识别在使用过程中和密码相比,分别在便利性、安全性、环境适应性和隐私风险四个方面存在哪些优势或劣势?如果刷脸出现故障,比如昨天还能正常识别,今天却突然提示本人为陌生人,可能是什么原因呢?下面是老师举例的这四个维度的参考。比如,便利性方面,人脸识别无需记忆,无接触快速验证密码需记忆复杂组合易遗忘或重复使用。安全性方面,人脸识别生物特征唯一性,但存在伪造风险,密码可定期更换,但易被暴力破解或钓鱼盗取。环境适应性方面,人脸识别受光线遮挡、口罩、墨镜影响大,密码不受物理环境限制。隐私风险方面,人脸识别生物数据泄露后不可重置,密码泄露后可修改,但需用户主动操作。人脸识别出现问题可能的原因是存在遮挡光线、极端或角度问题等,导致机器的人脸识别准确率可能大幅下降。不过,随着技术的发展研究人员也在不断提高机器对复杂环境的适应能力,因此人脸识别不应是唯一验证方式。我们讨论了人脸识别与密码各自的优势与风险,特别提到生物特征一旦泄露将很难更改。那么国家对于人脸识别技术的使用有没有专门的保护措施呢?就在不久前,国家互联网信息办公室和中华人民共和国公安部联合发布了重要文件人脸识别技术应用安全管理办法,已于2024年9月30日通过审议,并将于2025年6月1日正式施行。同学们可以课后去了解完整内容。其中第十条实现相同目的或者达到同等业务要求,存在其他非人脸识别技术方式的,不得将人脸识别技术作为唯一验证方式。个人不同意通过人脸信息进行身份验证的,应当提供其他合理、便捷的方式。第19条中对文件中提到的相关术语的含义进行了阐述,一个人信息处理者,是指在个人信息处理活动中自主决定处理目的、处理方式的组织。个人二人脸信息,是指以电子或者其他方式记录的与已识别或者可识别的自然人有关的面部特征。生物识别信息不包括匿名化处理后的信息。3、人脸识别技术是指以人脸信息作为识别个体身份的个体生物特征识别技术。4、人脸识别设备是指应用人脸识别技术识别个体身份的终端设备。5、验证个人身份,是指通过收集获得的人脸信息与信息系统存储的特定人脸信息进行一对一比对,确认和核对两者是否为同一人。6、辨识特定个人,是指通过收集获得的人脸信息与信息系统存储的特定范围内人脸信息进行一对多比对,发现和识别具有特定身份的个人。其实AI视觉技术不仅能识别人脸,还能识别更多类型的信息。在教育领域,AI正在帮助我们做一件非常重要的事情,智能阅卷。AI智能识别提高批改效率,作业分析班级错题及时巩固,精准提升考试考试模块与题库完全打通,实现题库选题一键制卡,高效阅卷。考后即可生成校级、班级、个人三级分析报告,自动分析班级、个人知识薄弱项,完成数据沉淀,形成教师和学生档案,实现教师精准教,学生个性学、个性化学习报告。个性化学习报告基于作业或考试的数据,依靠学科网海量资源,采用AI算法加老师助力加专家诊断三步诊疗法,为师生动态生成相应的个性化报告。学科网一直秉承精诚合作,成就客户的企业文化,致力于帮助学校管理者实时了解教学动态,科学决策,帮助老师轻松应对本授课作业和考试,帮助学生在系统的指导下高效学习,个性化提升学科成绩。一卷通基于智能题库的精准教学方案。这就是一种基于计算机视觉的应用,通过识别答卷图像进行文字识别,能准确识别同学们的答题内容,快速批改、自动评分、统计分析,大大提高了阅卷效率。计算视觉还能看懂我们的动作,比如在操场上,摄像机正在拍摄同学们做体操,这其实就是在进行姿态识别的应用,通过摄像头捕捉人体位置和动作系统可以判断动作是否标准,比如手臂是否伸直,角度是否正确。回到教室里,AI又能做些什么呢?当老师在智能黑板上书写时,AI可以实时识别文字内容,自动整理笔记,方便学生复习。辅助课堂摄像头可以利用姿态识别、人脸识别技术捕捉学生的听讲状态,比如是否专注,是否打瞌睡。再比如在绿化校园的草地中有一朵美丽的小花,你想知道它的名字,只要用手机扫一扫AI可以通过物体识别技术快速判断花的品种。这种技术背后依靠的是机器视觉系统对图像特征的精准分析。智能垃圾桶能快速判断垃圾的类型,比如可回收物、厨余垃圾、有害垃圾等,帮助我们正确分类,提升环保效率,也减轻了人工分拣负担。在前面的学习中,我们初步认识了计算机视觉在校园和生活中的应用。那么计算机是如何通过视觉系统来感知并理解外部世界的呢?接下来让我们一起详细了解计算机视觉的工作流程。第一步,外界景物数字化。在外部世界中存在静态或动态等多种景物,以摄像头为代表,都能将外界的图像信息转化为数字化图像。第二步,数字化图像处理。原始图像往往存在光线、角度等问题,因此需要经过一系列预处理操作,使图像质量更适合后续的分析识别。第三步,图像分析与理解。在这一步中,计算机运用算法对图像进行深度分析,识别其中的人脸、物体、文字等关键特征,并对图像内容做出理解和判断。第四步,实现机器视觉。我们了解了计算机视觉如何帮助识别物体。在校园生活中,这项技术也有非常实用价值的应用。比如在校园垃圾投放口部署摄像头,请绘制一张简易流程图,用于说明如何通过机器视觉智能识别垃圾类型、可回收垃圾、厨余垃圾、有害垃圾和其他垃圾的实现过程。它是怎么做到的呢?我们一起来看看基础的流程。首先是垃圾投放,同学或老师把垃圾投入投放口,然后摄像头开始采集图像,把这个垃圾拍下来,接着图像会被分析与理解,AI需要判断垃圾的形状、类型、颜色等。分析完之后,它会进行垃圾分类识别这是可回收垃圾还是厨余垃圾,或者是有害垃圾。最后识别结果会用于后续处理,比如给机械臂发出指令,让他把垃圾投放到正确的分类桶中。这一节课我们围绕AI视觉之旅主要学习了五大核心内容。人脸识别的应用。我们看到了人脸识别技术已经广泛应用在手机解锁考勤系统等多个场景中,大大提升了效率与安全性。人脸识别的概念,我们认识到人脸识别本质上是通过提取面部特征,利用算法进行身份验证或识别。人脸识别的特征。我们了解了比如面部细节是机器识别人脸的重要依据。人脸识别的安全性,通过人脸识别技术应用安全管理办法了解对人脸信息的保障。感知了其他计算机视觉技术及其应用,比如物体识别、姿态识别等,这些技术正在快速发展并改变着世界。接下来进入我们的智慧挑战时间,来看看大家对AI视觉知识掌握的怎么样。第一题,单选题,下列哪一项不是计算机视觉应用之一?答案选D。人脸识别、花卉识别、三弟追踪都是计算机视觉技术的应用。语音助手不需要通过摄像头采集图像信息,因此不属于计算机视觉技术应用。第二题,判断题,计算视觉只能处理二维图像,不能处理三维物体。这个描述正确的还是错的?答案是错的。计算机视觉能处理二维图像,也能处理三维物体。其实在运动项目中,计算机视觉技术的应用也非常广泛。甚至在我们熟悉的比赛中就能见到他们的身影。在网球比赛中,AI摄像头可以实时追踪球的轨迹,判断球是否出界。在游泳比赛中,计算机视觉可以分析选手的起跳、转身和划水动作。在击剑比赛中,AI系统通过高速摄像识别运动员的初见动作,判断击打的准确性,提高裁判判决的精准度。还有更多计算机视觉在奥运会上的应用等待同学们去发现。我们通过这个视频初步感知一下计算机视觉在运动项目的强大应用。本次无需深入理解,主要在于拓展同学们的认知。Marker list motion capture and understanding of professional non daily human movement has an important yet unsolved task, which suffers from complex motion patterns and severe self inclusion, especially for the monocle setting. In this paper, we propose sports cap, the first approach for simultaneously capturing three d human motions and understanding fine grained actions from monoculture Allen ing sports video input. To enable robust capture under complex motion patterns, we ve propose an effective motion embedding module to recover both the implicit motion embedding and explicit three d motion details via corresponding mapping function, as well as a sub motion classify. Our approach utilizes the semantic and temporary structured sub motion prior in the embedding space for motion capture and understanding in a data driven multi task manner. Based on such hybrid motion information, we introduce a multi stream spatial temporal graph convolution network to predict the fine grained semantic action attribute, and adopt a semantic attribute mapping block to assemble various correlated action attributes into a high level action label for the overall detailed understanding of the whole sequence, so is to enable various applications like action assessment or motion score. Sports cap proposes a chAllenging sports data set called sports motion and recognition test smart data set, which contains per frame action labels, manually annotation pose an action assessment of various chAllenging sports video clipsed from professional comprehensive experiments on both public and our proposed dataset show that with a chAllenging monoculture orts video input, our novel approach not only significantly improves the accuracy of 3d human motion capture,but also recovers accurate fine grained semantic action attribute. You can downside the smart dataset from our project and get up page. 今天我们的AI视觉之旅就到这里。通过这一节课,相信大家对计算机视觉有了更深的了解。希望大家保持好奇心,多关注科技的发展。未来你们每一个人都有可能成为改变世界的一份子。感谢大家的认真聆听和积极思考,我们下节课再见。