首页 > 科技 >

中国工程院院士邬江兴:90%以上主流大模型不可信,实用前景堪虞

发布时间:2024-07-04 11:19:35来源:网络转载
中国工程院院士邬江兴的观点

主流大模型的可信度


中国工程院院士邬江兴在2024年的活动中指出,当前最流行的主流大模型中有90%以上是不可信的。他的观点主要基于深度学习模型的“三不可”基因缺陷。这包括:
1.不可解释性:从数据提供到AI模型训练,再到知识规律和应用推理阶段,工作原理至今不明朗,问题发现和定位非常困难。AI系统中的安全问题比破解密码还要难。
2.不可判识性:由于AI对序列性强依赖,不具备对内容的判识能力,因此,数据存在质量差异和来源差异可能导致训练出的结果有差异。
3.不可推论性:AI的推理是从已知数据中获得规律性, 难以胜任对中长期未来事物变迁的预测和推理,只是把现有的东西归纳起来,看起来它聪明无比,但仅仅是比人类看得多,并没有产生什么新的认知。

内生安全个性问题


邬江兴还强调,AI内生安全个性问题是当前AI应用推广中的最大障碍。在不确定性中构建更安全的AI应用系统,是当前人类必须破解的安全难题。他认为,基于内生安全理论方法可以在应用系统层面破解AI内生安全个性化难题,理论研究认为内生安全构造可以一体化地解决个性化和共性化的问题。

动态异构冗余架构(DHR)


为了应对这些问题,邬江兴提出了动态异构冗余架构(DHR),这是一种网络空间内生安全基本方法。基于这一内生安全架构的一体化增强AI应用系统,将具备以下四个方面的安全能力:
1.利用不同算法模型之间的差异,有效提升AI控制系统抗攻击能力。
2.模型多样异构化是必要的安全机制,未来的AI系统如果是由单一模型提供,将不存在必要多样性。
3.差异化的网络算法可构建多个具有特异性的深度学习模型,针对同一应用目标。
4.模型不确定度估计方法能够为DHR架构动态调度算法提供最优的理论支撑。

结论


综上所述,邬江兴院士对中国主流大模型的可信度持有悲观态度,并提出了内生安全和个人化解决方案来应对大模型带来的安全风险。尽管大模型在某些方面带来了便利,但它们的不可解释性、不可判识性和不可推论性等缺陷以及随之而来的安全问题不容忽视。

本文链接:http://www.huotuzhijia.com/content-25-720-1.html

免责声明:本文为转载,非本网原创内容,不代表本网观点。其原创性以及文中陈述文字和内容未经本站证实,对本文以及其中全部或者部分内容、文字的真实性、完整性、及时性本站不作任何保证或承诺,请读者仅作参考,并请自行核实相关内容。