ad
新商报网 > 热点新闻

KAIST开发出受大脑启发的新方法可以让AI适度地怀疑自己从而避免过度自

2026-05-12 12:23 新商报网                     来源: 盖世汽车   阅读量:9333   

盖世汽车讯 当前大多数人工智能系统通过机器学习和深度学习来学习完成任务。机器学习是一种计算方法,使模型能够发现数据中可用于预测的模式。而深度学习则是机器学习的一个子集,利用多层神经网络,能够自主地从非结构化数据中提取特征并学习复杂的模式,有时甚至无需人工监督。

许多采用这些方法训练的AI系统还会为其预测结果生成置信度评分。这些评分本质上是对特定预测准确概率的估计。以往的研究表明,在多数情况下,AI系统过于自信,会给错误的答案赋予过高的置信度评分,甚至将不准确的信息当作事实呈现。这限制了其可靠性,尤其是在高风险应用中,因为错误的预测可能会造成严重的后果。

据外媒报道,韩国科学技术院的研究人员提出了一种受大脑启发的新型训练方法,有望生成更贴近实际的AI置信度估计。该策略使用随机噪声(即不包含任何有意义模式的数据)和任意输出对人工神经网络进行短期训练,使其在学习特定任务之前,能够学会生成更贴近实际的置信度估计。相关研究发表于期刊《Nature Machine Intelligence》。

郑重声明:此文内容为本网站转载企业宣传资讯,目的在于传播更多信息,与本站立场无关。仅供读者参考,并请自行核实相关内容。

责任编辑:夏冰
bg6