AI“读心”运用处景
诊断精神性疾病、评估骗贷风险等
AI如何“读心”?山世光阐明,AI“读心”并不是真的去推测人的内心想法,“更多地是从情绪角度来评估一个人”。也便是说,AI通过一个人外显的措辞、行为,来判断这个人内在的生理和精神状态。
因此,AI“读心”可以概括为三个层次,第一层是相对瞬时的生理指标,包括心率、呼吸率、血压、血氧、眨眼率、视线方向等;第二是短期的生理状态,比如疲倦、专注、亢奋、无聊等;第三层是长期的精神状况,这就涉及到自闭症、烦闷症、焦虑狂躁等精神性疾病。
山世光先容,在赞助诊断精神性疾病方面,AI“读心”已经有了较多的运用。以烦闷症诊断为例,传统的方法紧张依赖主不雅观量表的检测结果来判断,主不雅观量表的评测偏差很大,AI“读心”能供应更客不雅观的评估。2018年,来自澳大利亚堪培拉大学、新南威尔士大学等高校的团队曾通过三项特色来诊断烦闷症。详细来说,第一项是语音与措辞特色,如被测者说话时音量的大小、停顿的时长和频率等。第二项是头部姿态特色,比如在与他人互换时,被测者是否有摇头晃脑、东看西看等特色。末了一项是眼神特色,例如被测者眨眼的频率、视线的方向等等。实验结果表明,将这三项特色领悟之后,能达到88%的精度。
有名华人科学家李飞飞的研究团队也在2018年提出过一种机器学习方法,可以丈量烦闷症症状的严重程度。研究职员利用的数据包括患者面部的3D扫描视频、患者的讲话音频及讲话的转录文本。结果显示,对付重度烦闷症的检测,模型显示出了83.3%的敏感性和82.6%的特异性。
山世光及其团队,则将研究重点放在了自闭症的早期诊断上。研究职员通过摄像设备和视线捕捉设备记录儿童的社交和个体行为,比如儿童的面部表情、视线方向、与他人的眼神对视等,再通过打算机视觉技能剖析其行为特色,从而得出结论。
用摄像头采集儿童视线方向。
除了赞助诊断精神性疾病,AI“读心”也可以运用于情绪陪护机器人和自动驾驶领域,如对司机的危险驾驶行为作出预警。此外,AI“读心”还能构建用户画像,比如在银行在审批贷款时,可以用此评估客户骗贷的风险有多高;企业可以用此评估员工的特性,以便未来更好的管理和培养员工。
AI“读心”现存寻衅
缺少大规模的标注数据
虽然AI“读心”技能已经有了一些落地运用,但山世光说,科学家们仍旧面临较多的寻衅,个中之一便是缺少大规模的标注数据。
如果只有一部分经由标注的数据和大量无标注的数据,是否能做表情或感情剖析?如何让AI在半监督的条件下检测面部的眇小动作?这些是山世光在试图办理的问题。
表情检测领域有个观点叫做“面部动作单元(Action Unit,以下简称AU)”。这一观点源自美国生理学家Paul Ekman首创的面部运动编码系统。该系统从人脸解剖学的角度定义了44个AU,用于描述人脸局部区域的肌肉运动。
山世光课题组研发的AI模型能检测20多种不同的面部动作,这也导致数据的标注非常麻烦。而且,只有专业人士才能准确地进行数据标注。“标注一分钟的视频,可能须要一个专家花半小时以上的韶光才可以。据我们所知能做这件事的人实际上非常少,也导致这个领域的数据非常匮乏。”山世光说。
部分面部动作分类。
为理解决数据匮乏的问题,山世光所在团队考试测验把干系领域的知识,引入到数据样本中,让机器学习从纯数据驱动转化为知识和小样本、弱监督的数据共同驱动。
虽然AI“读心”技能间隔全面、广泛地运用还有很长的路要走,但是山世光认为,算法必定会越来越深刻深刻地理解人类的情绪。“西塞罗说,天下统统尽在脸上,我们能够从脸上看到很多的内容,比如说中医望闻问切中的‘望’,实在是通过看去诊病。”他说,接下来多少年,人类大概会从“看脸时期”进入“读心时期”。“读心对付我们去打造有温度、有情商的AI,我认为是至关主要的。”
采写:南都潘颖欣 冯群星