分享

网络AI 大模型十大问题深度分析 2024

 yi321yi 2024-03-28 发布于广东

摘要

      而随着大模型的兴起以及其在各行业表现出来的强大潜力,可以预见到大模型也将在 6G 网络中扮演重要的角色,相关的研究也将逐渐进入高发期。

      本篇文章将首先对网络大模型(NetGPT)给出明确的定义,随后从基础理论、场景需求、网络架构、部署管控、数据治理等方面系统阐述 NetGPT 的10 大重点研究问题,分析潜在的研究路线,希望能够为后续的 NetGPT 的相关工作指引方向。

1.  背景

ITU-R WP5D 第 44 次会议正式通过了《IMT 面向 2030 及未来发展的框架和总体目标建议书》, 作为 6G 研究的一个重要的里程碑,代表了全球的 6G 愿景共识,其中 AI 与通信融合被作为 6 大关键场景之一,与 6GANA 提出的 Network AI 理念不谋而合。

随着大模型的颠覆性发展, AI 在自然语言处理、计算机视觉、语音识别等领域的任务处理能力得到了极大的突破。

特别是大语言模型,如 ChatGPT,能够准确识别并理解用户的意图,为用户提供问题,生成文本等,并在结合多模态技术后不断向更多领域拓展。可以预计,大模型将会成为 AI 通信融合的关键组成部分。在提高网络中 AI 的通用性和多任务处理能力等方面发挥重要作用。

然而我们需要意识到,大模型与 AI 在应用上是有着很大不同的。在以往 AI 模型的使用上,是通过收集大量的数据然后从头训练模型,因此需要关注是如何针对具体任务设计模型结构、网络如何收集需要的数据,网络如何为 AI 模型的训练推理提供算力和算法支撑等。

大模型在应用上,是以预训练基础模型为底座,通过各种策略,如 prompt,fine-tune 以及向量库等方式来适配各类具体任务。另外,大模型意图理解和涌现能力,也给大模型的应用带来了更多的可能性,例如可以实现基于意图的编排,调用各种工具实现具体任务等。同时,大模型的巨大参数量和算力需求,也为其在网络中的应用带来了新的挑战。为此,我们需要重新梳理大模型和网络结合这个领域中的关键问题,为后续的研究指明方向。 

2.   网络大模型的定义

大模型将在运维、执行、验证等方面为移动网络服务。通过整合通信知识,大模型可以帮助检测故障和生成解决方案。随着网络服务的多样性和复杂性,大模型可以用来编排和调度任务流程,还可以进行性能优化、环境预测、资源分配等。通过出色的生成能力,大型模型有望在验证阶段发挥重要作用,如室外复杂环境的通道生成、高铁场景模拟等。因此,我们将无线通信网络中使用的大模型定义为网络大模型(NetGPT)。

由于无线通信网络包含 RAN/CN/OAM 这些不同的技术域,他们在功能特性、数据结构、以及性能需求上都有着明显的区别。

例如,应用在运维领域的模型可能与 NLP 领域 LLM 类似,可以直接对 LLM 进行微调得到;而应用于空口的模型与自然语言完全是另一套体系。因此,NetGPT 并不是一个单一模型通配所有网络场景,而是一系列模型的组合。需要注意的是,这种组合并不是简单的将孤立的模型摆放在一起。

我们为 NetGPT 建立了三层模型,即 L0,L1 和 L2。

其中,

L0 代表全网通用大模型;

L1 代表网络不同领域大模型,如 RAN/CN/OAM 域大模型;

L2代表特定场景下的网络模型,如信道预测或者负载均衡等,如图 所示。

图片图 1 NetGPT 三层 L0/1/2

NetGPT 在通用性、基础性和规模上,都是传统各网元各自训练出的特定场景模型所不能相比的。通用性上,NetGPT-L0 要能在全网各领域通用,包含是电信领域的基础知识,NetGPT- L1 的通用性就差一些,局限在对应的领域内。

基础性指的是能够通过 few-shot 甚至 zero-shot就很好的适配到下游任务上,这一点 NetGPT-L0/1 都要具备,特别是 L1,要能够作为 NetGPT- L2 的基础模型,通过各种策略来快速适配到新的场景中去,不再需要从头开始训练 L2。而在模型规模上,NetGPT-L0/1 的参数量要满足大模型的基准门限,目前业界普遍的看法是,产生智能涌现的最少参数量在 70 亿。NetGPT-L2 的参数量可以小很多,方便其部署在网络边缘和端侧。

3.  十大基础问题

尽管大模型,尤其是 LLM,已经在很多领域展现出了令人惊叹的能力,网络大模型仍然还有很多基础问题需要去研究和解决。

这些问题可以分为两类,一类是大模型本身的设计类问题,另一类是网络设计如何支撑大模型应用类问题,如图 3- 1 所示。也就是说,我们让 NetGPT 既要造的出,也要用得好。

图片图 2 网络大模型 NetGPT 十大问题

3.1 NETGPT 场景和需求问题

网络技术研究,以需求和场景始。研究 NetGPT 的需求和典型场景是网络大模型制定发展策略、规划和优化的基础,并对网络长期规划、技术升级和演进决策具有重要意义。只有具备高增益的典型场景、高价值的典型业务,才能为 NetGPT 后续的落地和部署提供必要保障,否则只能是停留在纸面的空中楼阁。

因此,NetGPT 的需求是否真实存在,需求程度如何,需要通过研究过程逐步去伪存真,为后续的网络设计和 NetGPT 发展提供必要依据。另外,在 NetGPT 需求和场景研究中,需要结合对未来技术趋势的分析,需求和场景研究可以一定程度适度超前当前科技水平。

单从 IT 视角进而 CT 视角看 GPT 技术,从 IT 视角看,GPT 既是一种 AI 大模型,也是超级AI 大应用;从 CT 视角看,GPT 既可以是一种辅助工作的赋能手段,也可是一种创新设计新范式。

而就 6G 网络发展而言,从“需求搜集”到“系统设计“,再到”规范标准“,“研发测试”,“规划,建设,运维,管理,优化,营销”等全生命周期的各个环节,GPT 类技术都可以在其中

发挥重要作用,而从一开始最具价值的毫无疑问是 GPT 赋能网络,即 NetGPT。而无线网络边缘单设备/终端相对于云较为受限的计算能力,决定了 NetGPT 并不能像传统 AI 那样对网络中的功能和算法进行简单替换,而需要重新设计,包括适配无线网络的 NetGPT 算法,以及原生支持NetLM 应用的无线网络架构。

(1)NetGPT 在网络中提质、增效、降本和拓收的需求和场景

体现在提高网络 AI 普适性、网络性能提升、网络智能化管控优化等方面。面向沉浸式通信、超大规模连接、超高可靠低时延、泛在连接、智能内生、通感融合等未来网络应用场景,相对目前的网络管理与服务方式,使用 NetGPT 是否可以出现新的管控范式,进而 AI 服务可以更加广泛,AI 准确度得到有效保障,网络获得较大的增益。例如,在多样性的场景中,为不同场景的需求提供定制化的解决方案,根据不同场景精准编排网络服务,从而实现网络的泛在智能,提高网络的适应性和用户满意度。在网络传统的管控优化方面,大模型能否提供更普适性的 AI,在自动化网络管理和故障排除、网络优化和资源分配、辅助构建自适应网络、检测网络威胁和异常活动从、辅助分析网络数据等方面,进行综合性的分析与管理,提升网络全局的效率。

(2)6G 网络架构支撑 NetGPT 发展的需求和场景

6G 网络新的创新技术,天然具备支撑 NetGPT 独具优势发展的土壤,如移动算力网络、分布式网络架构等。但是 6G 网络架构、功能、接口设计,与 NetGPT 的发展速度时间窗口不一定完全匹配。6G 网络设计在原生支持NetGPT 方面,通过云计算、边缘计算移动算力网络的计算资源,为 NetGPT 提供训练算力、分布式部署、分布式推理等场景是否具有需求与可行性。另外,在 NetGPT 算法设计中,是否匹配6G 网络泛在终端、异构资源特点;以及 NetGPT 的出现,是否会对目前 6G 架构,功能与协议栈造成冲击。这些将是 6G 网络和 NetGPT 需要共同面对的问题。

(3)NetGPT 在 6G 网络应用中的边界

无线网络的层级越低,对服务质量(QoS)(包括实时性和准确性)的要求就越高。目前的大模型技术并不能满足移动通信网络对高确定性 QoS保障的要求,未来 NetGPT 的发展是否会只能用于特定层级或特定功能。例如,NetGPT 是否只适用于空中接口的高层,而不适用于物理层?这些边界问题还涉及 NetGPT 在每个具体应用中可能发挥的作用。例如,NetGPT 能在多大程度上支持未来的 OAM 系统--完全或部分自治网络。在研究 NetGPT 时,有必要澄清上述基本情况和边界问题。

3.2  NETGPT 的基础理论问题

在未来无线网络全面智能化时代,通信、计算、数据、AI 的融合是不可避免的趋势,而构建NetGPT 是实现这一目标的关键。然而,要实现 NetGPT 的构建,需要解决许多基础理论问题。

(1)NetGPT 与 LLM 的差异

作为最具代表性的基础模型,大型语言模型 LLM 也被很多研究者作为网络模型的底座,通过微调或者提示等方式来解决网络任务。然而,通信领域与自然语言处理领域的根本差异导致了 NetGPT 与大型语言模型在理论上的显著差异。这些差异主要体现在以下几个方面:

1. 数据特性:NetGPT 处理的数据集涉及通信信号,例如通道信息,这些以高维张量形式表现,与大型语言模型所处理的基于令牌(tokens)的数据形式有本质区别。

2. 后端任务:无线网络处理的任务种类迥异,因此 NetGPT 的输出形式可能多样化,与大型语言模型使用令牌输入输出形式不同。

3. 模型大小:NetGPT 定义了多层次的结构,在不同层次上部署多种规模的模型。特别是在网络边缘部署的 NetGPT 模型,如基站中的 NetGPT-L2,其参数规模可能仅为 1 至10 亿,相较于集中式大型语言模型的 50 至 2000 亿参数规模有相当大的差异。

另外,随着模型规模的不断增长,我们看到 LLM 的性能提升也逐渐出现边际效益递减的情况,是否还有其他更好更高效的架构,或者说更适合移动网络的架构?例如 transformer 在一定程度上牺牲了捕捉局部特征的能力,特别是失去的位置信息对于时序数据非常重要,PositionEmbedding 也只是一个权宜之计,在作用域对于时序要求更高的移动通信系统时是否能产生好的效果?

transformer 的 Embedding 对于结构化数据的处理效果并不太好,尚未有效解决如何将非连续数据映射到向量空间的问题,这对于目前以结构化数据为主的电信运营商来讲也是一个亟需解决的基础问题。

因此,对于 NetGPT 是否能与大型语言模型使用同样的模型架构,或者NetGPT 将激发新的理论和架构研究,仍然有待进一步的探索。

(2)NetGPT 的泛化能力如何满足网络任务的多样性

大模型的一大优势就是可以利用非常少的下游数据来进行特定任务的适配,或者是 few-shot 甚至 zero-shot 的学习,都能达到不错的效果。这就为各类下游任务节省了大量的数据收集、清洗和标注的时间,大大节约了开发成本。

另外一个就是基于大模型来适配新任务,可能并不需要调整大量的参数,只需要调整非常少的参数量就可以,有很多 parameter efficient 的微调方法都能得到不逊色于全量参数调整的性能。但是,网络任务的多样性可能远远超过自然语言领域。

我们需要深入研究大模型泛化性的理论基础,为什么可以使用少量数据和参数就可以学习到新的任务知识,然后才能去有针对性的优化 NetGPT 在网络任务上的泛化性能。虽然这方面已经有一些非常重要的研究理论,包括过参数化等理论,但是其深层次的理论框架依然没有建立,包括我们应该建立起怎样的数学或者分析模型来对大模型进行定量的分析等。

(3)大模型参数规模问题也是构建 NetGPT 的一个基础问题

随着模型参数规模的增加,模型的性能和泛化能力也会随之提高,并且只需要更少的参数调整就能适配到新的下游任务。然而,大规模的模型参数也会带来计算和存储上的挑战,以及在训练和使用时带来更大的能耗。如何针对网络的复杂性设计与之匹配的模型参数规模,是非常值得研究的一个挑战性问题。

当我们想要去获得一个大型系统如移动网络领域专用的行业大模型时,我们必然要去弄清楚这些大模型上的理论问题。对于每个问题,都需要深入研究其具体的内涵和挑战,以推动NetGPT 的研究和应用。

3.3 NETGPT 的极致性能要求问题

通过使用深度学习、强化学习等先进的人工智能技术,大模型可以从大量移动网络数据中提取有用信息,并实现智能化的决策和控制,广泛应用于移动网络的信号处理、传输控制、无线资源分配、干扰管理等多个方面,为智能物联网、智慧医疗、智能交通等领域提供有力支撑。

为了实现这些应用,模型必须实时高效,能够快速处理输入并进行决策;模型必须准确可靠,尽量避免错误决策造成的网络问题;模型必须稳定可用,保障网络运行和服务质量不受模型故障影响;模型必须具有可扩展性,能够适应不同场景和不同用户的需求。

(1)NetGPT 的实时性要求

无线通信网络的应用场景常常涉及到各种实时任务,如自动驾驶、远程医疗、智能制造等。这些场景对网络的实时性要求极高,即使微小的延迟也可能导致严重的后果。这就需要大模型参与到网络业务的处理时,能够在极短的时间内进行决策和执行,以应对快速变化的网络环境。

例如基站上的资源调度的时间粒度是 0.5~1ms。然而大模型的复杂计算过程和大规模参数会带来推理的延迟,很难直接应用到网络的底层逻辑上。我们需要为NetGPT 开发高效的模型推理和执行方法,甚至在模型架构上进行重新设计和简化,从而提升其推理效率。进一步地,可以通过采用高效的硬件加速、进行软件的加速优化、压缩优化模型算法和模型结构等方法来形成芯片、框架、系统的整体优化。

此外,在移动网络中,数据是不断更新的,可以利用增量学习和更新方法,只对更新的数据进行训练和调整,以减少计算量和时间成本。

(2)NetGPT 的可靠性要求

移动网络中医疗诊断、金融风控等应用对网络的可靠性要求很高,任何通信问题都可能引发重大的安全事件。然而大模型依然没有突破神经网络 AI 的可解释问题,其在推理中可能发生的幻觉现象容易导致不准确甚至误导性的输出,就有可能为网络产生错误的决策,从而引发网络事故。所以目前的大模型应用仍然局限在外围辅助,无法触及核心系统。虽然大模型的幻觉问题还不能立刻解决,但是我们仍然可以从提高数据质量、改善模型结构、引入领域知识、加强防御措施等方面尽可能地降低这类风险。

(3)NetGPT 的高可用性要求

无线传输的环境复杂,存在各种不确定性和干扰,例如信号衰减、噪声干扰、多径效应等。同时,由于硬件规模和通信量规模庞大,大模型训练甚至推理过程中难免遇到硬件故障或软件问题。

大模型需要具备高可用性,在各种干扰或故障下保持较高的可用性,以避免由于推理中断造成网络通信的低效或故障。

一方面,需要考虑如何从数据备份、模型模块化、异常处理和分布式部署等方面提升大模型容错率,保障大模型不会因单一故障瘫痪;

另一方面,也需要大模型利用数据冗余、快速恢复机制等方式提供一定的容灾性,保证灾难发生后大模型能快速恢复,提供可用和稳定的网络服务。

(4)NetGPT 的灵活性扩展性要求

当前移动网络用户业务呈现出多样化的特点。未来,传感器网络、智能物联网等应用促进网络规模不断扩大,新型业务也不断涌现。大模型需要能够适应多种移动网络环境和业务需求,并进行灵活配置和调整。

大模型应该具备在计算、存储、通信等方面进行扩展的能力,以根据移动网络的需求进行扩展,处理更多的用户、更复杂的业务场景以及更高的数据流量等。同时,由于移动网络设备和协议多种多样,不同的设备和协议具有不同的特性和要求。

大模型需要能够针对不同的网络协议、设备类型和网络制式进行自适应调整,以便为不同的设备和应用场景提供一致的服务。目前,增强模型灵活性的技术包括模型压缩、模型迁移等。

3.4 NETGPT 间的协同问题

大模型是从弱人工智能向通用人工智能的突破性探索,能够用来解决了传统 AI 应用碎片化问题,未来多模态只会让大模型越来越大,但性能与能耗提升不成比例的效率问题限制了规模的继续扩张。相较大模型,小模型专注在特定场景,相对而言参数较少、结构简单、精度低、计算量较少,适用于处理规模较小、简单的数据集,可以快速迭代,便于快速试验的一种模型结构。

因此让网络大小模型的协同进化,各司其职可能是更适合的方式,大模型向边、端的小模型输出模型能力,小模型在真实场景收集的增量数据,负责实际的推理与执行,小模型让大模型有再进化的元素;不需要重复训练相似的大模型,同时小模型再向大模型反馈算法与执行成效,让大模型的能力持续强化,形成有机循环的智能体系。

图片图 3 NetGPT 大小模型协同示例

网络大模型 NetGPT 间的协同关系主要是体量较大适合在云端部署的 L0 全网通用大模型、L1 网络专业大模型,与体量较小适合在边缘部署的 L2 网络小模型之间,在模型训练和推理方面的协同,说明如下:

(1)L0 全网通用大模型与 L1 网络专业大模型间协同

在模型训练上,L0 全网通用大模型为 L1 网络专业大模型提供预训练模型,可利用专业领域数据和模型参数调整来进行模型微调,生成 L1 网络专业大模型;L1 网络专业大模型为 L0 全网通用大模型提供反馈数据来进行模型优化,即在模型训练上进行数据协同和参数协同。在模型推理上,针对跨域任务,L0 全网通用大模型可调度多个 L1 网络专业大模型,并提供通用知识,进行跨域任务协同和知识协同。

(2)L1 网络专业大模型与 L2 网络小模型间协同

在模型训练上,L1 网络专业大模型通过模型蒸馏、微调,生成 L2 网络小模型;L2 网络小模型为 L1 网络专业大模型提供反馈数据来进行模型优化,即在模型训练上进行数据协同和参数协同。

在模型推理上,针对单域任务,L1 网络专业大模型可调度多个 L2 网络小模型,并提供单域专业知识,进行跨域任务协同和知识协同。

在上述场景中,某些关键算法有待进一步研究,例如根据 L0 全网通用大模型的相关性进行参数修剪参数,并进行有效的微调以适应新的任务;如何实现大模型的知识与能力向小模型降维迁移的有效性、小模型的小样本学习向大模型的升维融合、以及不同维度数据的清洗与治理等;并从数学上保证协同后的效果等价,一致性,并能实现大模型推理性能,结果等不发生偏移,除了算法挑战外,支持 NetGPT 的跨供应商协作,包括功能和程序在内的协作内容的标准化、协同集的生成方法与系统控制等,也是需要继续深入研究问题。

3.5 NETGPT 的原生分布式部署问题

随着大模型越来越大,从几百亿到几千亿到现在 GPT4 的万亿参数,其对计算和存储成本的消耗也越来越大。当我们要将这样的庞然大物部署到网络内时,需要考虑可能出现的分布式部署方式,例如部署在网络边缘提供即时服务,或者部署在基站和终端来增强空口特性等。那么如何将 NetGPT 成功地部署到分布式环境中,以实现模型性能的最大化和资源利用的最优化,将面临着诸多挑战。

(1)NetGPT 的分布式拆分

在分布式网络中,每个节点的计算资源和存储能力都有所不同,需要根据节点的实际情况合理拆分模型,以获取节点间的负载均衡,同时最大化资源利用效率。网络的一大特点是动态性,终端的移动或者基站网元的忙闲时变化都可能导致模型的性能受到影响,可能还对模型拆分进行自适应的动态调整。

(2)NetGPT 的分布式训练。

大模型并不是一锤子买卖,其需要在不断执行中自我优化演进,完善自身的能力建设,为此我们需要针对大模型研究有效的分布式学习算法。

考虑到大模型本身的特点,已有的模型并行(如拆分学习)或者数据并行(如联邦学习)方式可能存在一定的局限性,达不到理想的的学习效果。我们需要去深入探索更多的可能,例如混合并行等方向。另外特别需要注意的是模型训练的一致性问题,如何确保所有节点训练的同步性和一致性,从而保证模型训练能够正确有效的进行收敛。

(3)高效的节点间通信机制。

不论是进行大模型的推理还是训练,分布式节点间的通信瓶颈都会成为制约模型性能的关键因素。与数据中心中可以部署高速的机器间高速通道不同,网络节点间的传输带宽更加受限。一方面我们当然还是可以从算法上入手,进行模型压缩,如剪枝和量化等;但是另一方面我们应该在网络内设计一套更加高效的节点间通信机制,能够让网络节点间的模型数据流通的更加高效便捷。

针对以上问题,需要深入研究相关的理论和技术,探索创新性的解决方案,结合网络自身的拓扑结构,建立高效的分布式部署方案。例如,可以采用分布式一致性算法来保证模型训练的一致性;通过动态负载均衡策略来优化资源的利用效率;利用高效的通信和同步技术来提高模型的训练效率;同时,需要研发安全的模型训练和使用策略,以保护用户的数据安全和隐私权益。

3.6 NETGPT 的网络架构设计问题

大模型主要部署在网络,云端的智算中心,利用集中的算力对数据进行预处理,AI 模型训练和验证等,会对网络的传输带宽带、性能指标等带来压力。而目前终端侧的智能化则由于算力,算法模型,数据等不足,还需要较大的提升。

如何实现在架构层面实现通信连接、计算、数据和 AI 算法模型的深度融合,充分利用网络中分布式的算力和数据,引入多节点间以及终端与网络间协同机制,实现分布与集中处理的融合,提升了数据处理、决策推理和资源利用的效率。同时基于“大规模预训练﹢微调”的范式,使 NetGPT 做到相对标准化,成为网络 AI 基础设施与底座的能力,赋能网络内各个场景,降低网络 AI 技术应用于下游场景的成本,NetGPT 将带来以下网络架构的影响。

(1)网络服务的优化:在网络的运营层基于 NetGPT 解释语义信息的能力,未来的无线网络可以为每个单独的应用程序生成一个专有网络,从业务等角度提供相应的服务逻辑、网络逻辑和网络资源。例如利用大模型在自然语言上的强大能力可用于提升智能客服、智能化经营、智能营销等运营服务功能,大模型在自然语言上的成功,启示了在语音、视觉等多模态数据上的扩展空间,赋能行业数字化,改进信息通信服务能力。

利用现有大模型的研发内容对大模型封装,将各类任务上的推理能力封装成统一的应用程序接口,对外 API 模式提供服务。大模型赋能网络运营可以获得这些接口,可以利用现有各种大模型即服务的模式,作为网络外部一种服务,像调用云能力一样,直接调用服务,主要是利用大模型已有多模态机器学习、语言理解,文本生成能力,对网络架构变化影响较小。

(2)网络的能力更新:由于网络中不同的技术域场景在功能特性、数据结构、以及性能需求上都有着明显的区别,未来的网络需要持基础大模型,NetGPT ,第三方大模型的原生部署支能力。此外由于参数数量巨大,大模型的知识更新带来巨大的计算开销,需要在考虑 NetGPT 的增量训练能力,在线学习演进的能力,实现在网络领域内对模型数据进行有效的变更,模型的“即时”更新。例如目前随着大模型 及其相关技术的出现和普及,可以在智能运维领域智能运维相关问题的快速问答以及运维人员确认后的快速执行等场景。大模型与智能运维 AIOps 可以协同助力运维人员快速识别系统故障类型、高效提供故障处置策略并生成自动化脚本实现故障自愈。由于网络运维需要在已有大模型自然语言理解能力上增强丰富的运维能力,故障的解决方案或修复策略知识库,不能直接已有大模型,用来辅助人工,对实时性要求不严格,大模型可以作为一种网络内部功存在,通信网络可以通过网络内部接口进行交互。

网络接口/协议变化:随着 NetGPT 的不断集成融入未来通信网络,基于模型之间的协作接口(例如基于 Token,Prompt)可能取代基于当前网络中的标准化经典字符串接口协议。通信网络引入大模型的各种场景下,模型必须以合理的延迟做出响应。移动通信网络是实现 AI 泛在普惠的基础平台,也是使能 AI 成为泛在化的社会级服务。由于端边侧资源的限制,对于终端设备而言,UE 受限于其计算、存储和模型资源,难以保障完整的大模型服务,无法解决推理大模型端侧带不动,小模型性能达不到。在移动通信网络内部引入基于模型之间的协作接口,通过端云大模型拆分以及聚合的模式,实现各模型端云协同进化架构。

网元智能化演变:随着通信网络逐渐演进成熟,通过引入 NetGPT 将网络的事后触发优化流程调整为事前预测及主动优化性能,缓解时滞,实现网络资源及各项性能的及时调整和优化分配,增强网络自身的功能和特性得到,网络在运行时,需要性能的稳定性可靠性保证,而大模型运行较慢,当推理请求的次数和请求数据量过大时,API 的响应时间和返回数据质量将难以保证,实际的反应时较长,短时间内要获得大规模的应用和及时响应体验比较困难。需要把大模型功能嵌入已有的应用和服务中,与网络架构进行融合,保证实时性,因此 NetGPT 可能将进一步深度融入6G 的网络架构,并以独立网元和网络功能实体的形式存在。

3.7 NETGPT 的安全隐私问题

大模型作为预训练的基础模型,其所承担的智能业务范围、数量和种类是以前的 AI 模型所不能比拟的。当前基于大模型的应用还处于发展阶段,隐私保护政策由服务商自行制定,用户不得不忍受宽松的隐私条件。未来大模型将成为网络设备和应用的基础功能,为千行百业带来普惠智能,用户(尤其是掌握敏感信息的用户)则会更加关注无处不在的隐私威胁,彼时数据安全问题将成为限制大模型发展的枷锁。正因为如此,其所面临的数据和模型安全问题也更加严峻,特别是为基础网络设施服务的 NetGPT,安全更是重中之重。

(1)NetGPT 本身的可靠性面临安全问题大模型很容易出现被攻击的情况,可能稍微改一改输入就使得大模型不能正常工作。例如使用简单的越狱攻击(Jailbreaking Attack)即可让大模型解锁伦理限制,进而产生大量误导性内容,给用户和服务商造成危害。另外,大模型特别容易被攻击者植入一些后门(backdoor),从而让 NetGPT 专门在某些特定场景下将潜在的网络漏洞传输给攻击者,这是非常重要的安全性问题,特别是 NetGPT 面对是的通信基础设施,一旦出现问题影响的是人们的基础生活,甚至造成严重的社会问题。除此之外,此前的研究表明模型越变越大之后,会变得越来越有偏见,越来越不值得被信任,这些问题都需要我们对大模型进行有针对性的约束。

(2)NetGPT 的可解释性对网络安全同样至关重要可解释性代表着模型在面对同一问题时能够提供一贯且稳定的答案。这一特性对我们更深入地理解模型行为、快速识别异常或潜在威胁、并采取必要的预防措施至关重要。

然而,缺乏可解释性可能会导致难以辨别异常行为、误判漏报、难以进行审计和验证。例如,异常流量模式或攻击尝试等情况。若模型不具备可解释性,可能会错失对某些潜在攻击的发现,或将合法活动误报为异常。另外,基础模型的可解释性对下游微调模型的可解释性也有深远影响。

若基础模型可解释性不足,可能影响整个系统的可解释性,使得后续微调模型难以理解基础模型的输出或推理过程。对模型决策基础的理解,是进行网络安全审计和验证的关键一环。如果模型缺乏可解释性,可能会导致难以验证其符合安全标准或法规要求,从而增加系统受到攻击的风险。因此,在构建 NetGPT 等模型时,确保模型具备良好的可解释性至关重要。这不仅有助于提高模型的可信度,还能帮助分析人员深入了解模型行为,并及时采取有效的安全措施,应对潜在的威胁和异常情况。

(3)NetGPT 的隐私问题包含训练数据泄露和用户输入数据泄露两个方面

一方面,NetGPT 会使用大量的网络数据和网络基础服务设施数据等,这些数据中可能包含潜在的隐私或者网络漏洞,攻击者通过链式提问(Chain-of-Thought prompting)即可能获取训练数据中的敏感信息,这可能给网络以及数据提供方带来难以估量的威胁。

另一方面,用户在使用 NetGPT的过程中,会暴露自身的隐私和敏感数据。因为用户必须上传自己的数据或者提示词(Prompt)给大模型提供方,才能通过计算获得预期的推理(Inference)结果,这个过程中用户隐私面临来自服务商和网络攻击者的多种威胁。

例如 OpenAI 在其隐私政策中提到,ChatGPT 会收集用户账户信息、对话相关的所有内容、互动中网页内的各种隐私信息(Cookies、日志、设备信息等),这些信息可能会被共享给供应商、服务提供商以及附属公司。

目前全球范围内发生了多起因使用ChatGPT 导致的数据泄露事件,比较著名的有发生在 2023 年 3 月的“三星芯片数据泄露“事件,此后 Apple 禁止内部员工使用 ChatGPT。美国政府与 OpanAI 签订条款禁止其在服务期间收集政府数据,此外多国监管机构亦先后宣布将关注大模型带来的数据安全风险。

即便服务商不会收集用户数据,恶意攻击者也会通过诸如数据偷取攻击(Prompt-stealing attack)等手段非法窃取用户数据。当前大模型还缺少执行标准以及安全约束,当我们谈到 NetGPT 时,尤其是面对未来的普惠智能时代,不可避免地要有针对性地设计数据安全的原则和规范。

3.8 NETGPT 的数据服务问题

大模型的训练需要使用到大量的数据,并且是高质量的数据。ChatGPT 和 Llama 的训练语料都达到了 T 级别。相比于自然语言,网络大模型需要的网络数据难获取的多,除了因特性网上的基础语料外,很多数据需要从网络系统中获取,其面临的挑战也就大得多。为此,我们需要从网络设计上原生的为网络大模型提供数据支持

(1)高效处理大量的异构数据

NetGPT 需要处理多种类型的数据,有的是空口的数据,有的是 RAN 侧的调度数据或者资源管理数据,有的是更高层的统计数据。这些数据的特征维度差异非常大,甚至有的是结构化数据,有的是非结构化数据。有的数据自于不同的源,但是表征相似的内容,比如对于某个用户的业务量,可以来自于端侧的业务统计,网络在调度时授权的空口流量,或者是管理面上利用话统得到的统计流量等,因此网络需要保证所有数据的一致性和正确性。

(2)大规模数据的分布式部署和实时供给

网络中的核心网设备、基站以及终端设备上都会存储各自的数据,网络需要为这些碎片化的数据建立一套统一的管理体系,在进行 NetGPT 训练和推理是能够快速便捷的获取到相应的数据。特别是在一些对实时性能要求高的场景下,如MAC 的资源调度,空口的波束赋形等,对于模型的更新效率和推理时延都有着 QoS 要求,数据供给作为关键一环将直接影响到最后的性能表现。另外,NetGPT 是会出现大量并发运行的,这也对网络服务提出了高并发的要求。

(3)网络知识图谱的构建。

为了提供更加可靠的服务,一种有效的方案是让 NetGPT 与知识图谱结合。知识图谱可以表示和生成思维链,通过结构化更好的思维链提升大模型的推理能力,并且对于大模型的回答进行关联分析,减少大模型的幻觉现象。当然,目前知识图谱也还面临着知识的多模态表示、深度知识抽取等挑战,有待进一步研究解决。

3.9 NETGPT 的评判体系与方法问题

由于网络领域对确定性,可靠性,正确性高度要求,如何对 NetGPT 进行全面、客观的评判成为了一个亟待解决的问题,对 NetGPT 的发展至关重要。

一方面通过对 NetGPT 性能的评测,可以为 NetGPT 优化和改进提供有力依据,提高其应用效果和商业价值。

另一方面 NetGPT 评测可以作为基准,了解不同厂商提供的 NetGPT 的性能和适用性,促进网络与大模型技术的发展和应用。此外,NetGPT 评测还可以促进不同领域研究者的技术交流和合作,共同推动网络人工智能技术的发展。为了保证评测技术方案的整体实用性、均衡性和系统性,可以包含指标,方法,手段几个方面的评判维度:

(1)网络场景领域特征评判。

现有评判方法如准确率 Accuracy(反映模型正确预测样本的比例),F1 Score(综合考察精确率(Precision)和召回率(Recall),兼顾模型在正类样本上的预测准确性和覆盖率,EM (Exact Match,模型生成的答案与参考答案是否完全相同),BLEU 值(Bilingual Evaluation Understudy,用于衡量语言模型生成文本与参考文本之间的相似度的预测准确性和覆盖率)等是评估大模型性能的重要指标。

NetGPT 除了以上问题,需要针对网络领域特征制定一套更为全面的评测体系,更具有针对性较强的评估指标,如功能正确性、任务成功率、问题的推理链长度和多轮推理等。这些特定指标结合起来有助于对模型在特定网络场景下的表现进行更精细化的评估,从而为不同网络场景下的任务提供更具参考价值的评测结果,以全面评价 NetGPT 的能力。而对于网络专业领域任务,需要关注模型对领域特定术语、概念和规则的理解和应用,量化指标的可执行性,以确保评测结果的可靠性。除此之外,考虑设计通用、实时、可靠、经济性等兼顾能力、效率和质量的综合指标体系。

(2)NetGPT 场景泛化性评判虽然某些语言大模型在很多任务上已经达到或超过了人类的水平,但是通信区别与语言领域有所区别,相对比较封闭,能公开获取的标注数据更少,如在智能化运维场景中,通过学习中错误数据来驱动智能化运维任务的模型,收集到足够的运行异常,运行错误数据比较困难,很难获取到覆盖实践中可能遇到的各种用户和场景。如何针对网络中的低频任务,评测者需要关注模型在使用少量训练数据时的表现,考虑不同网络场景之间的差异性和复杂性,使用更广泛的测试集和跨场景领域的评判任务,以便更好地评判模型在不同场景下的泛化能力。

(3)NetGPT 安全性评判网络攻击者可能会利用特定数据来攻击 NetGPT,或者破坏模型的性能。对抗性攻击是一种常见的攻击类型,通过向网络模型输入有意制造的数据或恶意样本来欺骗模型或破坏模型的性能。面对以上问题,需要考虑如何防范各种攻击模型,并设计相应任务来评估 NetGPT 安全性。

为了评判方法的合理性,需要设计覆盖全周期、全要素的工程化,包括训练推理,要素权重、综合目标等评判方法。在具体的评价方法上,NetGPT 可以采用以下两种方式:

(1)客观评测是大模型评测中常用的方法之一,适用于对 NetGPT 性能进行定量评估,具有客观性、可重复性和高效性等优点。可以直接通过程序实现自动化评测,从而提高评测的效率和准确性。

(2)主观评价相比之下,更依赖于网络领域的专家的经验和判断,对 NetGPT 的表现进行主观评估和比较。通常包括内容有效性、逻辑性和规范性等,以确定 NetGPT 优缺点和改进方向,可以提供更加全面和深入的评估结果,弥补客观评测的局限性,但需要大量的时间和人工资源。

此外,还需要提出适用不同阶段、精准和效率兼顾的评判手段,如高精度网络仿真平台、数字孪生网络、网管统计等。

3.10 NETGPT 的全生命周期管控和编排问题

NetGPT 的训练所需数据规模更大、模型复杂度更高、算力开销更多,这对各场景下NetGPT 的生命周期管控与编排提出了更高要求。首先,NetGPT 的全生命周期管理将面临模型的拆分与聚合、模型的更新与维护,以及 NetGPT 知识产权保护等新挑战。

(1)大模型的分布式管理。

一方面,大模型训练所需数据呈现高维度,大规模,多数据源的特点;另一方面,大模型的训练对算力的需求巨大。因此,在部分场景下需要将 NetGPT 进行拆分以进行分布式的部署与训练。根据大模型的功能、神经网络结构、数据分布与特征,需要对NetGPT 拆分为多个子模型或将子模型进行聚合的过程进行统一的管理。在这个过程中,可能涉及到拆分策略的选择,子模型的分布式存储与同步,子模型的聚合管理等。

(2)大模型的更新与维护。

相比于小模型,大模型的更新与维护涉及采集和标记海量数据,导致计算资源的开销和时间成本显著增加。同时大模型更新的时间间隔可能会影响其性能与准确度,因此需要设计更加高效的更新与维护策略。

(3)NetGPT 知识产权保护。

网络中部署的大模型可能来自于不同的厂商,部分 NetGPT的所有者不是网络运营商,并且不希望运营商对这些 NetGPT 进行控制。因此需要建立平衡的协同管理机制,以更好的保护多方利益。

利用 NetGPT 来编排网络的步骤可分为:任务分解:NetGPT 接收外部任务,将外部任务分解为较小、可独立执行的子任务,确定子任务的顺序和依赖关系,从而实现对复杂任务的高效处理。

若 NetGPT 本身无法有效处理子任务,可将子任务交给网络专家模型进行处理。若网络模型需要外部知识,则与知识库进行交互。

任务编排:将子任务与网络专业模型进行绑定,并按照子任务的顺序和依赖关系,编排形成可执行流程。可以通过建立子任务与网络专家模型的适配关系来实现两者关联与绑定。

任务执行:每个专家模型执行所分配的子任务,返回执行结果。

结果汇总:NetGPT 汇总网络专业模型反馈的结果数据,形成任务执行结果,反馈给外部。

其中如何编排 NetGPT 以匹配不同场景的差异化需求是 NetGPT 面临的另一大挑战,需要解决异构资源的编排管控以及大模型闭环控制等问题。

图片图 4 NetGPT 编排框架示例

(1)异构资源的编排与管控。

大模型的部署应用涉及到连接、计算、存储等多维资源,并且模型可能部署在云、边的不同计算节点上。因此,需要根据场景的特点和需求,利用分布式计算框架或资源管理系统进行计算任务和网络资源的编排与匹配,以提高系统的性能和资源利用率。

(2)NetGPT 闭环控制

在大模型运行周期内,网络状态、场景需求等均可能出现动态变化。一方面,需要对用户需求和网络状态的变化进行快速准确的识别;另一方面,需要根据识别出的变化做出快速反馈,对大模型进行持续的调整和优化,实现面向动态需求的 NetGPT 闭环控制。

针对以上问题,首先,需要结合 NetGPT 与传统模型的特征与区别,充分识别 NetGPT 的生命周期可能包含的步骤;其次,需要研究高效的分布式协同管理机制,降低模型协同带来的信令开销;同时,需要考虑大模型全生命周期的安全性问题,保障数据、模型、知识等多个维度安全和隐私。

4. 总结与展望

NetGPT 是移动网络和大模型间的双向融合趋势,在这份白皮书中,我们深入探讨了 NetGPT的十大基础问题,包括基础理论、场景需求、网络架构、部署管控、数据治理等多个方面。并进一步分析潜在的研究路线,为后续的 6GNetGPT 的相关工作指引方向。

同时我们必须认识到,NetGPT 的进一步发展需要以实质性的工作为基础,包括数据收集和处理、模型研发和优化,以及验证和测试等方面。

首先 NetGPT 需要大规模、多样性和高质量的数据来训练和验证,应重视数据安全和隐私保护,同时鼓励数据共享和开放,以推动模型研发的普惠性和公平性,此外,应重视从多样化的应用场景中提取有价值的特征和知识,以丰富模型的训练数据。其次我们呼吁继续深入研究和优化NetGPT 的体系架构和算法,以提高其性能、效率和可解释性,应重视跨学科的交流和合作,借鉴和发展计算科学、数学、物理等领域的最新成果,推动 NetGPT 的持续创新。

最后我们需要建立和完善 NetGPT 的评估指标和方法,以确保其性能和可靠性。应重视开展大规模的实验验证,尤其是在真实的网络环境中进行长期的性能测试和鲁棒性验证。此外,我们也应鼓励开展跨领域的合作,从应用场景中寻找验证的机会,以推动 NetGPT 在实际问题中的应用。

NetGPT 的进一步发展需要我们共同努力,开展实质性的工作。无论是数据、模型还是验证,都需要我们持续的投入和深入的研究。此外,我们还需要加强与其他领域的合作与交流,如人工智能、云计算等,共同推动 NetGPT 的发展和应用。让我们一起面对挑战,把握机会,共同推动NetGPT 的发展和应用。

    本站是提供个人知识管理的网络存储空间,所有内容均由用户发布,不代表本站观点。请注意甄别内容中的联系方式、诱导购买等信息,谨防诈骗。如发现有害或侵权内容,请点击一键举报。
    转藏 分享 献花(0

    0条评论

    发表

    请遵守用户 评论公约

    类似文章 更多