文 | 追问nextquestion,作者 | 谢宇阳,编辑 | 存源
在本日的数字时期,大脑已不再是一个伶仃的存在。脑机接口技能将人类思维与外部天下连接起来,使外界能够“读懂”我们的心声,我们也能通过思考来掌握外部设备或吸收信息。
但随之而来的寻衅是,这些博识莫测的技能如何能为普罗大众所理解,从而得到普遍运用?试想,如果我们能对大脑发出的每一个旗子暗记管窥蠡测,那便能自行操作繁芜的脑机接口设备,乃至预测和治疗神经和精神疾病。然而,大脑的繁芜性使得解读这些旗子暗记变得极具寻衅。传统人工智能方法虽然能供应阐明,但这些阐明每每难以被非专业人士所理解。
为办理这个问题,印度理工学院Yogesh Kumar Meena领衔的研究团队提出了一种新的思路:运用于脑机接口的可阐明人工智能技能(XAI4BCI)。他们试图将人工智能的阐明能力与大脑旗子暗记结合,让我们能更直不雅观地理解脑机接口,让这门技能不再是科学家的专属,而是融入每个人的生活。
▷原始论文,Explainable artificial intelligence approaches for brain-computer interfaces: a review and design space。
什么是“可阐明人工智能”?
根据《剑桥词典》的定义, “阐明”(explanation)一词的含义为“某人为使某事清晰或易于理解而给出的细节或情由”。在可阐明人工智能的语境中,研究职员对此进行了扩展:“对特定受众来说,可阐明人工智能是一种能供应细节或情由,而使某功能变得清晰或易于理解的人工智能。”
诚然,“阐明”并不代表“理解”(understanding),只管人们常常把这两者混为一谈。你肯定有过这样的经历:别人费尽心思向你阐明某个观点,你却仍旧一头雾水。这正在是目前可阐明人工智能所面临的寻衅。
虽然人工智能系统本身也有能力给出阐明(如决策树、支持向量机等),但这些阐明并不一定易于理解。例如,如果让人工智能阐明“预测”(prediction)这个词,它可能会说:“参与预测的神经元由于前几层中n个神经元的持续串激活而被触发”。对付大多数人来说,这并不是一个易于理解的阐明。类似的,在预测模型中人工智能喜好用准确率、f-score、Cohen-kappa等丈量方法来阐明某种算法的性能,但它们并不能阐明为什么此算法会达到这样的性能。
只管人工智能供应理解释,却不是一个“好的阐明”。此外,阐明的受众也很主要——向数据科学家阐明“决策”的办法,与向神经科学家或病人阐明“决策”的办法,有着寰宇之别。
因此,我们须要通过“诠释”(interpretation)来把拙劣的阐明转化为易于理解的阐明。本论文则系统先容了人工智能如何通过诠释把繁芜的脑机接口变得直不雅观明了,以增强用户对利用脑机接口的信赖。通过诠释的一样平常构造,我们能够:
(1)以更清晰的视角看待人工智能领域中常常交替利用的术语:阐明、理解和诠释;
(2)设计一个通用架构来使人工智能产生普通易懂的阐明;
(3)建立一个统一的视角让人工智能为不同受众供应阐明。
运用于脑机接口的可阐明人工智能
脑机接口可以通过大脑向机器传输旗子暗记,并解读这些大脑旗子暗记来分类行为、诊断模式和预测行动。大脑旗子暗记的繁芜性和人工智能模型的“黑箱”特性,让这些听起来像是直接从科幻小说中走出来的天方夜谭。
脑机接口技能的广泛接管程度依赖于其能否向普罗大众供应清晰的阐明。例如,向利用者澄清,纵然是最前辈的脑机接口,通过辨别在单次试验中与事宜干系的电位振幅,也不可能实现像科幻电影中的读心术那样的功能,这至关主要。
可如今,就连最前辈的人工智能算法都缺少透明度,这进一步加剧了人们对脑机接口的陌生和不信赖,尤其是在医疗和康健等高风险运用中。随着神经网络模型规模的增加,其准确率可能提高,但可理解性每每也可能降落。因此,这里面存在一个准确性和可阐明性彼此之间的权衡问题。
为了在保持准确性的同时办理人们对脑机接口的信赖鸿沟,研究职员提出了一个针对脑机接口运用的可阐明人工智能设计空间(design space),包括四个关键维度:旗子暗记空间、任务空间、用户空间和剖析空间:
(1)旗子暗记空间:定义捕捉大脑活动的手段;
(2)任务空间:定义大脑的认知活动;
(3)用户空间:代表用户大脑旗子暗记的个体差异;
(4)剖析空间:代表研究职员对剖析大脑旗子暗记所用的处理技能。
▷图1:可阐明的人工智能是开拓安全可信的脑机接口的透视镜。
这个设计空间的目标通过“人在回路”(human-in-the-loop)的办法,将人类和人工智能联通,共同创建脑机接口的预测模型,让人们参与到一个良性循环中来演习和调试算法。通过这种办法,我们可以将原来作为黑箱的繁芜预测模型转变为可见、可信赖的技能(如图2)。
▷图 2:脑机接口的可阐明人工智能旨在帮忙环内的人类。
接下来,我们将考试测验逐个回答6个研究问题,还将磋商XAI4BCI的设计空间,包括了四个关键变量(即 “是什么”、“为什么”、“谁”、“如何做”)及其相应种别。这种全面细致的视角将为包含可阐明人工智能的脑机接口系统的设计和履行供应辅导。
问题1:为什么要阐明脑机接口?
要深入理解脑机接口的事情和运用,就必须明白为何必要阐明它们。深入探究脑机接口背后的驱出发分能够帮助我们理解和信赖这项技能。这些驱出发分将有助于人们把诠释模型观点化,从而在人工智能天生的原始阐明上进行加工,以产生更易于理解的阐明。以下是对脑机接口进行阐明的四个紧张驱动力(如图3):
(1)为了创造:脑机接口不仅仅是工具,它们也是探索未知的窗口。通过阐明脑机接口的预测模型,我们可以揭示大脑的基本功能,如感官刺激和决策过程等,从而创造前所未有的知识。
(2)为相识释:脑机接口的利益干系者须要对模型天生的预测(尤其是对高风险结果的预测)进行解释,以建立人与机器间的信赖,并评估人工智能系统的可靠性。例如,用于诊断脑部早期疾病的脑机接口可能须要强调脑部旗子暗记的某些非常,以便向专家证明其决定的合理性。
(3)为了掌握:脑机接口的有效利用须要精确的校准和掌握。通过供应阐明赞助界面,用户可以更好地理解如何操纵和掌握这些繁芜的系统,从而实现更精确和自若的交互。
(4)为了改进:人工智能系统常常通过主动或被动的反馈循环来自我改进。供应阐明有助于突出统计数据和结果之间的因果关系,避免数据中的偏差和噪音。
该研究统计得出,可阐明人工智能用于脑机接口的紧张驱动力为:
为模型学习到的特色寻求解释和神全心理学验证,其次是将其运用于模型改进和调试中。
▷图3:将可阐明人工智能运用于脑机接口研究的驱动力
问题2:谁是阐明脑机接口的受益工具?
在理解脑机接口及其广泛运用的过程中,不仅仅要理解技能本身,还要明白这项技能对不同群体意味着什么。这就引出了一个主要的问题:谁是这项技能的利益干系者?
理解这些干系方及其需求,对付确保脑机接口技能的精确阐明和有效运用至关主要。同样,为了达成“人在回路”的目标,阐明脑机接口的任务并非一成不变,它须要针对不同受众进行调度。
(1)终端用户:他们是技能的直接管益者,可能包括康健人群、患者或做事供应商的客户。他们的需求紧张集中在如何利用、安全性、可靠性以及预期效果等方面。
(2)领域专家或研究职员:在神经科学、生理学、运用生物统计学等领域的专家,他们常日关注于技能背后的科学和研究进展。他们可能须要深入的技能阐明,以及如何将新的研究成果或理论运用于改进现有技能。
(3)行业、经理和高管:这些人可能是技能的决策者或影响者,间接参与脑机接口或干系做事的观点化、生产和商业化的个人。他们关心的是如何将脑机接口技能商业化,以及它对市场的潜在影响。
(4)监管机构:参与政策制订和实行的个人,积极参与脑机接口技能的管理和道德规范。他们须要理解技能的事情事理和运用处景,以便制订得当的政策和法规。
(5)开拓职员、设计职员:直接参与脑机接口系统设计和工程的职员。对这群人来说,理解脑机接口的事情事理、可能的技能寻衅和改进空间是至关主要的。
通过识别和理解这些利益干系者的需求和角色,我们可以更有效地阐明脑机接口,确保信息的传达既准确又对口。这种深入的理解和沟通对付技能的接管度、运用和进一步的创新至关主要。因此,阐明脑机接口并非单向传达,而是一个涉及多方、多层次需求和期望的繁芜过程。
问题3:阐明脑机接口可以运用于哪些行业?
在确定须要哪些阐明,以及对谁进行阐明之后,还要考虑脑机接口技能的运用领域。例如,娱乐领域的脑机接口可能更看重用户体验和互动乐趣,而医疗领域的脑机接口则须要重视精准度、可靠性和对繁芜决策的阐明。
目前,脑机接口技能已从用于互换和康复的赞助设备发展到神经反馈和娱乐技能。而随着脑机接口对公共数据集需求的增加,人们对用于赞助技能和康复运用的运动图像和运动解码也产生了显著兴趣(图4)。
(1)赞助技能:用于互换、移动、环境掌握和增强认知;
(2)康复和假肢:评估和促进截肢或脑损伤后的功能和活动能力;
(3)认知诊断和治疗:疾病检测、神经反馈和演习;
(4)娱乐技能:游戏、电子竞技、虚拟现实和天生艺术。
随着脑机接口运用范围的不断扩大,它也有望在游戏和娱乐技能等低风险领域被大众接管。这时,一个机会点也逐渐显现,即建立通用平台,以测试和评估不同数据集和任务中的模型性能,以及鼓励对新型模型技能的可阐明性进行基准测试。
▷图4:采取可阐明人工智能进行脑机接口认知任务的趋势。在可阐明性方面,运动和图像是脑机接口最多的研究领域之一。
问题4:如何阐明脑机接口?
一个“好的阐明”常日须要一个得当的界面。试想,如果要向一位油车车主阐明新能源汽车在节能环保上的上风,若是利用专业的工程术语和繁芜的技能图表,可能会使信息难以理解,进而丢失该用户。而一个大略易懂的虚拟仿照仪表板,通过图形和直不雅观的能量转化动画来表示引擎、能耗、车速、乃至产生用度等信息,就可以让车主直不雅观地理解车辆的状态和性能上风。以是说,得当的界面表达对付阐明来说至关主要。
对付脑机接口而言,这意味着须要将繁芜的神经科学和机器学习事理翻译成可视化、直不雅观和随意马虎理解的信息。不同的阐明界面和技能各自扮演着独特的角色,以帮助不同的利益干系者理解和信赖脑机接口技能:
(1)频谱图:神经振荡是认知活动的标志,频谱图记录了大脑在不同状态和活动下的电活动模式。频谱图有助于以独特的视角来对认知、感情、就寝等认知活动进行阐明。
(2)韶光模式:特定的韶光模式已被确定为某些已知刺激或认知活动的代表。例如,当捕捉到的旗子暗记与刺激物相位锁定时,就可以比较不同个体的反应,并找出共同的模式。
(3)空间舆图:空间图便于在二维或三维度上可视化丈量大脑活动的不同形态,可在传感器层面(传感器位置)或源层面(已确定的源大脑区域)表示。
(4) 特色干系图:将丈量到的旗子暗记视为预测模型的特色,干系性分数则表示特定特色在决策中的浸染。
利用得当的阐明界面,利益干系者们就可以很随意马虎地理解关于脑机接口。而对付每个界面,相应利用到的可阐明人工智能技能可分为:
(1)基于SHAP的方法,包括 SHAP 和DeepLIFT/DeepSHAP,它们供应了一种阐明模型决策背后的贡献度的办法;
(2)基于干系性的方法,包括分层干系性传播和积分梯度,它们能够识别哪些输入特色对模型的预测最为主要;
(3)基于类激活图的方法,包括显著图、GradCAM等,通过突出显示输入的哪些部分对模型的决策最主要来供应直不雅观的阐明;
(4)利用把稳力、自定义过滤器或权重的可视化技能;
(5)其他技能,如 LIME、基于树的 t 分布随机邻域嵌入(t-SNE)、遮挡敏感度剖析、模糊规则阐明等,这些方法供应了一种定制化的办法来阐明模型的事情机制。
图5直不雅观地展示了脑机接口阐明方法的性子以及常用的界面。研究显示,在实行指定认知任务时天生的空间舆图,有助于直不雅观地阐明大脑区域和空间形态,从而根据剖析结果向利益干系者揭示更多见地。例如,有学者利用可阐明人工智能理解模型所学特色随逐次试验的变革,以调试和改进性能[1];也有学者通过将传感器旗子暗记转换到模型中的源空间来实现可阐明性[2]。
▷图5:为向利益干系方阐明脑机接口而利用的界面。
问题5:如何让脑机接口设计空间透明可信?
在探索针对脑机接口运用的可阐明人工智能设计空间时,我们必须考虑一系列基本要素或“基元”,基德配合构成了可阐明人工智能在脑机接口运用中的框架。正如字母和数字组成了拼字游戏的根本一样,这些基元组成了脑机接口设计的核心。
上文中,我们谈论了这些用于脑机接口的基元:脑机接口的驱动力(“为什么”)、利益干系者(“谁”)、运用领域(“是什么”)、界面(“如何做”)。结合这些元素,就可以构建一个全面的、以人为中央的XAI4BCI设计空间,以适应和促进“人在回路”的脑机接口,进而实现下一步技能飞跃。图6利用和弦图(chord diagram)帮助我们直不雅观地理解XAI4BCI的设计空间变量。
和弦图是一种显示数据之间关系的图形方法。它用于直不雅观显示一组有限实体之间的联系或关系。实体在图的周边用圆圈表示,它们之间的联系用弦来表示。弦线的宽度可用来表示连接实体之间关系的强度或频率。
▷图6:XAI4BCI的设计空间变量及其关联。
问题6:如何促进脑机接口的可阐明性?
为了深入理解并提升脑机接口的可阐明性,我们须要识别和分类可用的阐明类型。这些阐明类型包括:
(1)类似定律的陈述:在认知过程中确定的物理和化学定律。例如,神经元之间信息通报过程中涉及神经递质的开释。
(2)统计规律:通过对脑旗子暗记的剖析和建模,来创造和确认那些能够描述和预测脑活动的普遍性规律。例如,昔时夜脑旗子暗记表现出特定的模式时,模型能够以95%的概率确认用户正在进行专注的认知任务,而在其他状态下,确认用户处于安歇状态的概率为85%。
(3)因果关系:利用人工智能或专家知识进行因果推断,得出驱动征象的因果过程和相互浸染。常日,来自脑损伤研究和脑刺激的信息可供应大脑功能的因果关系。
(4)实体和活动:实体和相应的活动通过阐明演化成机制。例如,在视觉系统中有一个专门卖力识别人脸的识别网络。这个网络中识别的实体是人脸特色,如眼睛、鼻子、嘴巴等。当视觉输入中包含人脸时,大脑中卖力人脸识别的区域会被相应地激活,这个机制就可以阐明输入中的这些实体。
在人工智能领域,许多模型自身就具备易于阐明的特性。例如,线性模型(如线性回归或支持向量机)可以通过与每个特色干系的系数来阐明每个特色对模型输出的影响。决策树通过树状构造的路径供应了决策过程的直不雅观阐明。基于规则的系统(如专家系统)则利用人类可理解的逻辑规则来表达决策。
虽然神经网络常日被认为是黑箱,但也有一些技能可以让神经网络更随意马虎被阐明,例如把稳力机制可以突出模型所关注的输入的特定部分,层干系性传播(LRP)可以为每个输入特色授予干系性。为脑机接口选择一种可阐明的人工智能技能取决于要检测的大脑反应类型、模型的繁芜性以及所需的可阐明性水平,即是否有必要从源头上定义被激活的大脑区域。
想要为脑机接口的某个决策溯源,我们有必要对阐明加以诠释。虽然仅仅回答了“发生了什么?”的阐明是充分的,但能够回答“为什么会发生?”的阐明则是必需的,这也正是脑机接口的利益干系者寻求阐明的初衷。
例如,我们正在研究一种通过脑电旗子暗记来掌握一个机器手臂的脑机接口。我们想要为用户的一个特定决策(如用机器手臂抓取一个物体)进行溯源,理解这个决策是如何形成的。如果仅仅是回答“发生了什么?”的阐明(充分的阐明),那么阐明为:用户的大脑发出了特定的电旗子暗记模式。
而回答“为什么会发生?”的阐明(必需的阐明)则为:(1)在用户的大脑中,特定的神经网络被激活,产生类似与抓取动作干系的认知决策;(2)这种认知决策引起了特定的脑电旗子暗记模式;(3)脑机接口系统学习了这一模式与抓取动作的关联,因此能够阐明这一模式为一种掌握旗子暗记;(4)机器手臂收到掌握旗子暗记,实行相应的动作,例如抓取物体。
可以看出,通过后者我们能够更全面地理解脑机接口决策形成的缘故原由,知足利益干系者对付决策机制的深层次阐明的需求。因此,如果脑机接口预测模型的阐明不足充分,则有必要进行进一步的诠释,来回答“为什么会发生”。为实现这种深层次的阐明,可运用以下几类诠释策略:
(1)全局或局部诠释:全局诠释关注模型的整体行为和规则,而局部诠释则聚焦于特定实例或决策。例如,要阐明脑机接口驱动的机器人向右转弯的决定是否合理,阐明特定实例(局部)比阐明模型学习到的基本导航规则(全局)要更随意马虎理解。因此,在阐明中可以根据须要和清晰度,选择全局诠释或者局部诠释。
(2)近似或同构诠释:在诠释繁芜阐明的过程中,近似法能帮助理解。例如,与其阐明与诊断大脑活动非常干系的所有特色,不如只通过供应突出特色来近似繁芜的阐明,这样可能会大略易懂,便于解释情由。
(3)特定于模型或与模型无关的诠释:诠释技巧可以针对所选模型,也可以与模型无关。前者专门为特定类型的模型而设计,以帮助我们理解每个部分(比如网络中的每个神经元或层)是如何对终极决策产生影响。后者则是一些通用的阐明技能,它们可以用在各种不同类型的模型上。最新的一些技能常日用于阐明神经网络学习到的权重,通过剖析这些权重,我们可以理解网络在处理数据时更关注哪些方面,哪些输入特色对预测结果影响更大。
综上所述,XAI4BCI的设计空间为阐明脑机接口的决策供应了更全面的视角,有助于设计任何包含可阐明人工智能的脑机接口系统(如图7)。
▷图7:XAI4BCI的设计空间有助于开拓可阐明的脑机接口。
谈论与展望让符号人工智能与机器学习并驾齐驱
在磋商脑机接口技能和可阐明人工智能的领悟时,我们必须重视人类在这一交互过程中的浸染。人类不仅是脑机接口的利用者,也是评估和剖析这项技能性能的关键角色。在脑-机沟通中,须要有效的互换、信赖、清晰度和理解,而XAI4BCI通过结合符号人工智能和机器学习为这些寻衅供应理解决方案。
例如,稠浊模型可以同时包含数字和符号部分,个中神经网络卖力特色提取和数值处理,而符号推理引擎则卖力阐明结果并根据逻辑规则作出决策(图8)。
▷图8:用符号和数字结合的阐明框架全面赞助XAI4BCI。
把可阐明人工智能作为脑机接口的工程工具
将可阐明人工智能运用作为脑机接口的工程工具的主要性表示在两方面。一方面,在赞助和娱乐技能的脑机接口运用中,它能优化环境掌握并提升模型性能。另一方面,在科学研究领域,特殊是用于诊断和康复的脑机接口,可阐明人工智能被用来验证模型的预测并探索神全心理机制。
例如,有报告称对抗噪声(adversarial noise)对脑机接口所用的模型有很大影响[3-5]。可阐明人工智能在研究其他领域模型中,对对抗性噪声的鲁棒性方面发挥了至关主要的浸染。有学者提出利用阐明来改进模型[6],包括增强演习过程的不同组件或调度已演习模型,这些研究还显示理解释如何帮助模型提高泛化能力和推理能力。然而,在工程运用的准确性与可阐明性之间的权衡方面,每每优先考虑准确性。
把可阐明人工智能作为脑机接口的研究工具
可阐明人工智能的浸染不仅仅是供应对模型预测的理解,还能揭示与大脑反应动态干系的深层神经机制。在诊断和康复的运用中,脑机接口的性能阐明对付验证模型预测的精确性至关主要,而可阐明人工智能供应了强有力的手段来实现这一点。有学者利用可阐明人工智能从脑磁图(MEG)数据[7],成功识别出在伸手运动过程中处理运动参数(即加速度、速率和位置)的大脑皮层。除侵入性单神经元研究或大规模相关性研究外,可阐明人工智能还供应了新的路子来研究大脑的运作机制。
可阐明人工智能的拓展
当脑机接口模型或系统的决策难以被阐明时,它们就难以被用户接管。因此,我们须要为脑机接口的性能供应清晰的阐明,无论是在运作良好还是不良的表现下。特殊是,当用户无法掌握脑机接口,向用户(和用户家属)阐明它为什么不起浸染就变得至关主要。同样,脑机接口也有必要阐明为什么有时性能很高,为什么它有时事情非常,也便是该当供应包括硬件故障在内的全面阐明。
虽然该研究的设计空间XAI4BCI发起在阐明框架中纳入确定性法则、因果关系和机制,但很少有人谈论将特定领域的知识库纳入阐明框架。添加知识表征、通过回路内的职员反馈来整理数据,以及学习如何减少模型和数据中的偏差,都有助于建立一个强大的阐明框架。这一研究方向仍有待探索。
可阐明人工智能的陷阱
目前的可阐明人工智能技能也存在毛病。有学者根据其意图将其分为两种:阴郁模式和陷阱模式[8-9]。“阴郁模式”旨在人工智能通过操纵对脑机接口的阐明来侵害用户,而“陷阱模式”则是因一些知识盲区而导致人工智能产生了副浸染。例如,有学者谈论了脑机接口研究中关于解码模型可阐明性的一个常见误区[10]。他们强调,虽然解码模型旨在预测大脑状态以掌握脑机接口,但每每存在一个隐性的假设,即这些模型的参数可以很随意马虎地从大脑特性的角度进行人为阐明。
在解读多元分类器(multivariate classifier)的权重时(尤其是在根据这些权重做出决策时),纵然是对付较大略的线性模型,神经成像干系研究者也常常谈论误读分类器权重存在的潜在隐患。因此,提高脑机接口模型的可阐明性至关主要,应供应故意义的准确阐明,以避免潜在的缺点和后果。
可阐明人工智能的局限性
人类普遍方向于过度信赖从有限数据集中得出的特定阐明。但过度、盲目的信赖存在巨大风险。因此,我们须要在设计和履行脑机接口系统时采纳方法,防止利益干系者在决策中引入偏见。这意味着设计空间须要进一步发展,阐明界面必须突出这一警示,提醒用户把稳这些阐明的潜在局限性和风险。例如,即便大脑的空间舆图显示了模型预测的权衡位置,也不能担保这些大脑区域便是进行预测的最佳区域。这终极须要由利益干系者来识别和判断,以避免可能的缺点。
只管XAI4BCI有助于开拓可视化阐明,促进不同模型间阐明的标准化比较,但如何客不雅观评估这些阐明并开拓干系的评估指标仍旧是一个主要的研究方向。
结语
脑机接口技能的成功不仅取决于性能指标的优化,更依赖于我们能否全面理解和解释其事情机制。性能固然主要,但它只代表了在实验室受控环境之下的可用性。在实际运用中,我们更须要的是理解和解释技能的事情事理,以及在面临预期之外的情形时调度和应对的方法。正是这种对技能深入理解的能力,让人们对脑机接口的预测模型产生信赖,帮助所有利益干系者做出更加明智、更具前瞻性的决策。
脑机接口技能的发展不应局限于软件或算法层面。它是一个跨学科领域,涉及神经科学、认知科学、工程学等多个领域。我们须要将这些领域的知识和方法整合到模式识别、旗子暗记处理等脑机接口核心技能中,以确保脑机接口系统不仅在实验室环境下有效,也能在繁芜多变的现实天下中稳定运行。
此外,随着脑机接口技能逐渐走向临床和商业化,对其硬件组成的理解和解释也变得极其主要。这包括传感器的选择和放置、旗子暗记的采集和滤波器的设计等,每一个决策都须要基于对系统如何事情的深刻理解来做出。
在此根本上,XAI4BCI的兴起,正是对当下人工智能领域的一种回应。虽然数字人工智能历来都是焦点,但要构建能与人类进行共生互动的更具弹性的系统,就必须纳入符号人工智能。这种多角度、多方位的方法旨在提高脑机接口的性能并加强这个技能与不同受众的互换,为可阐明的脑机接口领域的进步奠定根本。
XAI4BCI不仅是技能的进步,更是向全面、透明、可信赖的未来迈出的坚实一步。
原始论文:
Rajpura, Param, Hubert Cecotti, and Yogesh Kumar Meena. \"大众Explainable artificial intelligence approaches for brain-computer interfaces: a review and design space.\"大众 arXiv preprint arXiv:2312.13033 (2023). https://arxiv.org/abs/2312.13033
[1] Aellen, F. M., et al. \"大众Convolutional Neural Networks for Decoding Electroencephalography Responses and Visualizing Trial by Trial Changes in Discriminant Features.\"大众 J Neurosci Methods 364 (2021): 109367. Print.[2] Petrosyan, A., et al. \"大众Speech Decoding from a Small Set of Spatially Segregated Minimally Invasive Intracranial Eeg Electrodes with a Compact and Interpretable Neural Network.\"大众 J Neural Eng 19.6 (2022). Print.[3] Zhang, X.; Wu, D.; Ding, L.; Luo, H.; Lin, C. T.; Jung, T. P.; Chavarriaga, R. \"大众Tiny Noise, Big Mistakes: Adversarial Perturbations Induce Errors in Brain–Computer Interface Spellers.\"大众 National Science Review 8.4 (2021). Print.[4] Meng, L.; Jiang, X.; Wu, D. \公众Adversarial Robustness Benchmark for Eeg-Based Brain–Computer Interfaces.\"大众 Future Generation Computer Systems (2023). Print.[5] Zhou, X.; Liu, C.; Zhai, L.; Jia, Z.; Guan, C.; Liu, Y. . \"大众Interpretable and Robust Ai in Eeg Systems: A Survey.\"大众 arXiv preprint (2023). Print.[6] Weber, L.; Lapuschkin, S.; Binder, A.; Samek, W. . \"大众Beyond Explaining: Opportunities and Challenges of Xai-Based Model Improvement.\"大众 Information Fusion (2022). Print.[7] Kim, H., J. S. Kim, and C. K. Chung. \"大众Identification of Cerebral Cortices Processing Acceleration, Velocity, and Position During Directional Reaching Movement with Deep Neural Network and Explainable Ai.\公众 Neuroimage 266 (2023): 119783. Print.[8] Anders, C.; Pasliev, P.; Dombrowski, A. K.; Müller, K. R.; Kessel, P. \公众Fairwashing Explanations with Off-Manifold Detergent.\"大众 International Conference on Machine Learning (2020). Print.[9 ]Chromik, M.; Eiband, M.; Völkel, S. T.; Buschek, D. \"大众Dark Patterns of Explainability, Transparency, and User Control for Intelligent Systems.\"大众 IUI workshops (2019). Print. (2023).https://doi.org/10.1038/s41586-023-06819-6[10] Haufe, S.; Meinecke, F.; Görgen, K.; Dähne, S.; Haynes, J. D.; Blankertz, B.; Bießmann. \公众On the Interpretation of Weight Vectors of Linear Models in Multivariate Neuroimaging.\"大众 Neuroimage (2014). Print.