据 MIT NEWS 今日宣布,麻省理工学院(MIT)和 MIT-IBM Watson AI Lab 的研究职员提出了一种专为大型措辞模型量身定制的校准方法。
他们的方法被称为“温度计”,其事理是在大措辞模型之上构建一个较小的赞助模型来对其进行校准。

图源 Pexels

据悉,这种被叫作“温度计”的方法所需的打算能力更少,但同时又能保持模型的准确性,并使其能够在未曾碰着过的任务中做出更好的校准相应。

通过针对各种任务对大措辞模型进行高效校准,“温度计”可以帮助用户找出模型对缺点预测过于自傲的情形,终极防止用户在可能失落败的情形下支配该模型。

有关论文的第一作者、麻省理工学院电子工程和打算机科学研究生沈茂豪(IT之家注:音译)表示,“我们希望向用户供应一个明确的旗子暗记,见告他们模型的回应是准确还是不准确,以反响模型的不愿定性,让他们知道模型是否可靠。

专治AI大年夜模型对缺点谜底过于自信麻省理工学院提出校准方法

借助“温度计”,研究职员开拓出了一种多功能技能,利用一种被称为“温度缩放”的经典校准方法,为新任务有效地校准大措辞模型。
在此背景下,“温度”是一个缩放参数,用于调度模型的“信心”以与其预测准确性同等。

研究职员演习了一个赞助模型,该模型在大型措辞模型之上运行,自动预测校准新任务所需的“温度”。
“温度计”只须要访问大型措辞模型内部的一个小部分,就能预测出特界说务数据点的精确“温度”,以校准其预测。

该团队希望未来使“温度计”支持更繁芜的文本天生任务,并将该技能运用于更大的大型措辞模型。

参考