郁建兴 | 人工智能大模型的变革与治理郁建兴 |

郁建兴 | 人工智能大模型的变革与治理郁建兴 |

摘要:2023年春天,人工智能度过一个“疯狂三月”,OpenAI、MetaAI、斯坦福、百度等研究机构和公司分别发布各自旗下的人工智能生成式大模型。这些生成式大模型可以在大量下游任务上达到惊人效果,甚至表现出某些通用人工智能的能力,有潜力改变每一个人的生活,而质疑的声音则认为人类社会尚未做好迎接通用人工智能时代到来的准备。无论如何,属于人工智能大模型的时代已经来临,它给人类带来机遇的同时,也带来了未曾设想和准备的治理挑战。本文从考察人工智能生成式大模型和传统机器学习模型之间的本质区别开始,刻画生成式大模型带来的巨大变革;在此基础上,尝试回应近期人工智能大模型治理急需关注的问题。应对人工智能大模型带来的治理新挑战,无法单独依靠行政或技术手段完成;有效整合行政和技术手段是确保人工智能大模型风险可控,并使其造福人类社会、实现科技向善的必要条件。


2022年底,由OpenAI研发的大型语言模型Chat­GPT问世,短短几月间引起巨大轰动,于2023年春酿成“疯狂三月”,众多研究机构和公司纷纷推出人工智能大模型(以下简称“大模型”)。ChatGPT具有强大的性能,能够帮助人类完成资料搜寻、代码编写和智能问答等复杂任务,可以替代80%工作种类中的至少10%工作内容,从而极大地推动了各行各业工作模式的变革。

类似地,MetaAI于2023年4月公开的图像分割模型Segment Anything Model(SAM)在计算机视觉领域刷新了人们对于人工智能模型能力的认知,被称为计算机视觉的“GPT时刻”。

人工智能大模型的出现给社会带来了大量机遇,但同时也带来了全新的治理难题和挑战。相对于一些传统机器学习模型,大模型不仅具有更复杂的结构和更多的模型参数,更产生涌现效应,形成前所未有的推理能力。在许多场景中,大模型已经不再仅仅扮演应用工具的角色,而能辅助甚至自主完成完整的工作流,成为脑力劳动的副脑。

这种角色转变不仅在人工智能研究领域产生了巨大影响,同时带来全新的、潜在的治理难题。本文旨在探讨大模型相较于传统人工智能模型可能带来的机遇和挑战,并探讨应对这些挑战的可能路径。我们提出,人工智能大模型的治理不能单独依靠技术或行政手段单独实现。通过技术手段可以避免大模型的诸多潜在危害,但是技术与行政的双重保证才是大模型治理的必要条件。

1 从传统模型到大模型

1956年达特茅斯会议的召开标志着人工智能研究的开端,此后经历了若干次高潮和低谷,而以AlphaGo的问世为标志,深度学习让人工智能再次达到了巅峰。深度学习的目的是从数据中学习和识别特定的模式,以使模型具备预测能力。然而这种基于模式识别的深度学习是否真的具有智能?深度学习在很多任务上表现出色,但也暴露出推理能力薄弱、泛化能力不足的缺陷,特别是这种模型无法形成通用能力,即当训练任务与推理任务不同时,模型无法保证泛化性。

此时,生成式模型横空出世。长期以来,人工智能领域更多关注于判别式模型,生成式模型相比判别式模型而言一般是更难训练的,但随着GAN、Diffusion Model、自监督训练等算法的创新,结合海量数据和庞大计算资源,大规模生成式模型近年来取得飞速进步,极大地拓宽了人工智能的应用场景。生成式模型的优势在于其出色的泛化性,并且它可以不依赖于标签进行优化,省去了巨大的数据打标成本。

目标任务的广度和深度决定了人工智能大模型所具有的革命性力量。其中的代表就是GPT模型(Generative Pre-training Transformer)。2018年GPT1问世,OpenAI用预训练的transformer解码器得到可以用于不同下游任务的表征,在GPT2中则进一步尝试了上下文学习(in-context learning)的方法,即不预先设置模型任务,而是将任务包含在文本的上下文中。此后基于instructGPT和GPT3.5的ChatGPT打破了人们对于人工智能大模型能力的质疑。ChatGPT已经发布数月之久,虽然OpenAI的研究证明了模型体量的膨胀会在某一时刻给模型带来推理能力的大幅提升,但是其中的原理依然是黑盒。如今的ChatGPT只需要使用者提供合适的提示(prompt)就能协助使用者完成不同的任务。

在大型语言模型发展的同时,大模型在视觉等领域也取得了重大进展。2015年GAN的提出为图像生成的任务提供了全新思路。2020年出现的Diffusion Model已经可以生成出十分精美的图像。CLIP等模型则打通了文本数据和其他数据之间的壁垒,帮助使用者通过语言生成相应的文本、音频甚至视频。如今,人工智能大模型已经可以结合多模态的数据,在不同的数据类型之间搭起桥梁,帮助人类解决更加复杂的任务。

大模型已经切实改变许多行业从业人员的工作流,有效赋能大量工作场景。通过生成式模型生成文本、图像、音频和视频可以有效地节省许多工作任务的时耗。通过上下文学习,ChatGPT等大型语言模型可以很好地完成一些判别模型的任务。最新测试显示,GPT4已经在许多考试任务中超越了人类考生的平均水平。令人惊喜的是,在一些需要逻辑推断的任务中,这些大模型依然可以表现出一定的准确率并输出符合逻辑的推理过程。目前,微软已经将GPT接入其旗下的BING搜索引擎,正式向谷歌发起挑战。中国公司百度、阿里巴巴等机构也陆续发布各自旗下的大模型,并且逐步形成不同场景中的应用。大模型带来的另一大机遇在于全新的工作类型。它们在取代部分工作岗位的同时,也创造了许多全新的工作岗位。例如在ChatGPT走红之后,越来越多的企业开始招聘和大语言模型对话的专职员工,通过编写合适的prompt引导大语言模型辅助工作。

然而,人工智能大模型发展中的一个隐患可能在于:人类并不能按预期控制技术发展方向与速度。人工智能的发展现状与人们在数年前的预期不尽相同,我们也难以清晰地勾勒出人工智能未来发展的理想国。但是,大模型带来的全新治理问题已经摆在了人类社会面前,在这个变革时刻我们能确定的是,对于大模型及其影响的治理与传统的技术治理、算法治理存在着很大区别。在传统的技术治理、算法治理中,模型通用能力不强,因此治理对象在本质上依然是模型的使用者。而对于一个性能强大却在某些方面不可控的黑盒大模型,尤其当该模型涌现出推理能力,模型本身也已经成为治理对象之一。

2 大模型带来的变革

大模型给社会带来了巨变,随之而来的是治理难题与挑战。我们接下来从模型成本角度探讨大模型带来的成本壁垒与技术壁垒,从可信人工智能角度探讨大模型的可信度隐患,从所有权角度探讨大模型知识产权的归属问题,从创新激励的角度探讨大模型导致的潜在的创新动力降低。我们关注大模型影响最大的两类主体:普通民众与创新型工作者。成本与技术壁垒使普通民众被隔离于大模型生态之外,而大模型可信度的缺失则将民众暴露于公平、隐私等风险之前。知识产权的归属定义不明确使创新型工作者的原创性劳动成果淹没于大模型生成的海量内容中,无法获得相对应的激励,从而降低社会创新能力。
2.1 成本壁垒与技术壁垒

当模型体量、资源消耗量和数据量成为其是否具有推理能力的决定因素时,我们不可避免地会担忧大模型带来的成本壁垒与技术壁垒。模型的成本壁垒是指个体乃至中小型研究机构与商业公司已经无法负担大模型开发的成本,技术壁垒则意味着开发和拥有大模型的技术门槛越来越高,人工智能越来越被少数精英所控制。

在大模型来临之前,已经有一些互联网巨头尝试开发一些大体量的模型,但这些模型难以泛化到不同特定场景。而中小型机构只需要相对有限的经济成本就能够开发或微调一些用于特定任务的模型。举例而言,2022年,一张英伟达A100计算卡的价格在1万至1.5万美元之间,一个需要16-32张A100能够完成的计算任务的硬件成本在50万美元以内,这对于许多科研机构和中小型企业来说尚属于可以负担的范畴。调研机构TrendForce指出,ChatGPT的训练大约需要30000张A100,其GPU采购成本至少需要3亿美元。除此之外,场地费、电费等也会带来巨大的经济负担。

同时,海量训练数据的获取同样意味着成本壁垒,谷歌、微软等互联网巨头由于其旗下搜索引擎或电商平台的存在,天然就能够获取大批量数据,可以有效地降低数据获取的成本。但是对于社会中的大部分主体来说,获取足够体量的数据是成本巨大或不可负担的,它们更多依赖于公开数据集和自身业务场景中的有限数据进行模型训练。这就意味着,大模型可能导致人工智能领域的垄断,这种垄断首先是由技术门槛和基础社会投入造成,但进一步会从技术层面延展至经济层面。

可以预见的是,随着大模型在各类任务上的性能越来越强,一个多模态(包含视觉、语言等模态)的大模型能够在众多场景中完成不同任务,意味着原本基于这些任务开发的专属模型可能失去竞争力。由此,可能导致无力负担大模型开发的企业与研究机构失去竞争力,无法在原先场景下达到比大模型更强的性能,最终引发大模型的应用垄断,而导致其经济收益集中到少数大公司,最终引发社会创新能力下降。

相较于成本壁垒对于中小型企业和科研机构的威胁,技术壁垒更多威胁到的是社会中的个体。作为个体面对以GPT为代表的“庞然大物”时,普通人缺少足够保护个人价值不受技术发展的威胁的手段。特别是那些从事与人工智能无关行业的人,其利益和生存空间很可能受到极大损害。例如当要求ChatGPT输出《观沧海》一诗全文的时候,模型有概率输出其自行创作的诗文;当使用者询问天气预报时,模型可能输出与天气预报完全无关的随机内容。

对于社会中的许多个体而言,他们既缺乏应对模型潜在风险所必备的技术知识,也没有能力检验模型输出的真伪。一种常见的辩解认为,大众作为人工智能的使用者,如同不懂得冰箱原理也能够安全使用冰箱,大模型不会因为技术壁垒危害个人。这里的问题在于,冰箱使用者可以通过观察冰箱的制冷效果、噪声分贝等直观现象判断冰箱是否正常工作,缺少人工智能大模型相关知识的普通民众却缺少分辨模型输出质量的技术手段。

以ChatGPT为例,其生成的文本到底有多少准确性,是否存在错用误用是很难检验的。当使用者尝试要求ChatGPT总结某一虚构人物的学术成果,它依然可以生成一些虚假信息。被技术壁垒所隔离的个体很容易受到类似信息的危害,导致其个人利益受损。技术壁垒的更深层次隐患在于普通民众难以意识到大模型在哪些应用中会存在潜在的风险。目前大模型已经能够在大量任务中提供足够优秀的表现,甚至在一些任务中超过了人类的平均水平。但是,理解模型在泛化性、鲁棒性等层面存在的可能风险,对于普通民众而言是困难的。
2.2 大模型与可信人工智能

大模型来临之后,可信人工智能研究显得尤为重要。大模型的强大性能很容易让人产生信任感和依赖,然而当其输出不可信的结果时会产生更大的危害。当前的可信人工智能研究包含三个重要主题:公平性、隐私性和可解释性。我们接下来从这三个方面分别讨论大模型的可信度问题。

在传统的机器学习分类任务中,算法公平性通常要求模型在保证准确性的同时满足一些统计指标,或保证相似的样本具有相似的输出。已有研究者提出了大量指标度量算法的公平性问题。如何在不同公平性指标中做出取舍,至今没有明确的结论,但是一个普遍共识在于,模型的公平性是可测量、可矫正的。在传统的深度学习任务中,定义公平性问题则是相对容易的。例如在犯罪率预测的任务中,大量的历史经验和专业知识能够帮助研究人员确定算法偏见可能发生的场景。但是每当一个大模型被应用于某一个新的子领域时,就可能存在多种潜在的、不可知的算法偏见。大模型在开发过程中都会在公平性方面进行测试,但是其公平隐患依然存在。从可测性的角度看,大模型往往可以被用于许多不同的任务,在广泛任务中检测公平性是困难的。很难有检测机构能够保证在所有潜在场景中检验某一个大模型的公平性,对于文本生成等任务也很难准确测量模型的公平性。大型语言模型和图像生成模型已经在人种、性别等属性上不止一次表现出过算法偏见,而这种偏见在大模型中令人担忧。

大模型的训练依赖于海量的现实数据,这些数据通常会包含一些个人信息,例如电话号码、家庭住址和个人邮箱等。我们很难判断一个大模型的训练使用了多少包含隐私的信息,而这些信息有多大概率会在何种情况下泄露。在GPT应用中就曾经出现过训练样本中的个人信息遭到泄露的先例。GPT2时期,只需要通过对模型输入乱码“East Stroudsburg Stroudsburg……”,模型就会输出一些包含姓名、电话号码,还有地址、邮箱和传真的真实个人信息。一些大型语言模型已经尝试在训练时加入一些限制以防止模型输出个人信息,但是通过特定的引导,模型依然存在信息泄露的风险。

基于深度学习的人工智能模型一直在可解释性上饱受争议。针对这一现象,研究人员已经提出了一些方法扩展黑盒模型的可解释性。但是,面对一个包含海量参数的大模型,例如包含1750亿参数的GPT3,可解释性的挑战是巨大的。模型可解释性的核心矛盾在于:越具有解释性的模型性能相对较弱,而性能更强的模型更加难以解释。当这些缺少可解释的大模型被部署在不同场景中,一旦模型存在潜在隐患,后果可能是不可接受的。

公平性、隐私性和可解释性共同构成了目前可信人工智能研究的核心议题。深度学习时代模型可解释性的难题一直未能得到解决,大模型的参数膨胀使其可解释性更加难以实现。大模型缺乏可解释性导致模型输出完全依靠黑盒驱动,模型开发者无法精确地对公平性和隐私性风险进行规避,目前大模型避免公平性与隐私性风险的技术路径往往仅仅依靠对于一些敏感话题的一刀切式回避。同时,我们无法检验大模型的完整潜在输出空间,这意味着大模型的公平性与隐私性检验同样是困难的。由此,我们不得不面对一个有些悲观的结论:目前大模型的可信度可能缺少足够的保障。对于大模型,不仅提高可信度是困难的,甚至对其可信度的测量都是困难的。
2.3 大模型的知识产权问题

个体的数据可能在未经同意的情况下被用于模型的训练。个人发布在互联网上的文章、照片等都可能被用于大模型的训练,引起了许多内容创作者的恐惧和抵触。全球知名视觉艺术网站ArtStation上,已经有千名艺术家申明禁止任何机构将自己的作品用于AI训练。但是,大模型的训练已经完成,很多作品作为训练数据已经被一些模型所学习,其权属问题已经发生。在人工智能研究中,一些讨论数据权属和数据定价的研究已经关注到了此类问题,但是缺少权威主体进行权责界定的当下,数据权属依然是一个模糊概念。OpenAI开发的语音转文本系统Whisper并未公开训练数据的具体来源,仅表示模型爬取自互联网,这种软处理似乎逐渐成为了互联网巨头应对数据权属挑战的另一种方式。

如何界定使用这些数据训练的模型的知识产权变得很困难。以图片数据为例,一张用于大模型训练的人像图片本身可能就包含了拍摄者和模特两个所有方。当这张图片经由某一机构发布于某一平台时,此机构和平台又可能成为潜在的所有方。当这些图片被用于训练某一大模型,其他主体的知识产权可能并未得到有效保护。一个更加难以界定的问题是艺术家的创作风格是否包含知识产权。如今,通过一个大模型可以轻易地生成毕加索或者梵高等艺术家风格的艺术作品,这些作品不是由这些艺术家创作,但是却包含了原艺术家的创作风格。类似的图像生成业务在商用换取收益时,原艺术家通常不会得到经济补偿,在模型训练之前也未获得这些艺术家的授权和同意,这对于上述创作者而言无疑是一种巨大伤害。

ChatGPT目前仅采用了2021年及以前的数据作为训练数据,但在未来大模型连接网络开始更新时,知识产权的争端会变成更大问题。一个社会科学家的观点创新可能一经公开就会被大模型作为学习资料从而出现在该模型生成的文本中。因此,大模型的不断发展也许会成为创新精神与开源文化的阻力。创新者会在分享自己成果时变得更加小心翼翼,而对于一些内容创作者来说,花费大量时间和精力进行创新也许不如直接使用大模型具有更高“性价比”。
2.4 大模型造成的创新代价

对创新工作而言,从短期来看,大模型极大提升了个行业工作流程的效率,但是从长期来看,大模型会成为科技创新的帮手还是阻力,至今并不明朗。乐观派认为大模型的出现大大降低了人类重复劳动的成本,可以让各行各业从业人员全身心投入创新性工作,最终促进创新。我们可以观察到,大模型能够极大地节省文本语言纠错润色、制作幻灯片等任务所需花费的时间。但我们同样观察到,自ChatGPT发布以来,将其用于论文“灌水”等用途的新闻屡见不鲜。在线课程提供商Study.com调查了100多名教育工作者和1000多名18岁以上的学生,其中53%的学生承认曾经使用ChatGPT完成论文。一些设计艺术创作公司辞退了部分员工,转用MidJourney等图片生成模型生成工作流程中所需的图片。这类对于大模型的使用方式挤压了人类的创新能力,并影响了部分创新性工作从业人员的工作环境,提高了其生存压力。

大模型可能阻碍创新的另一种情况发生在知识生产领域。科学研究的推进依赖于科研人员扎实的知识基础,在对现有研究全面了解基础上求解有新意有价值的问题。具有强大性能的大模型在帮助初学者整理归纳知识点的同时可能也会使其产生工具依赖。一项调查显示,现在美国89%的大学生都在用ChatGPT协助完成作业。中英美日等国多所大学已经开始禁止学生在课业中使用以ChatGPT为代表的大模型。这一现象暗示了这些教育机构对于大模型可能导致学生学习与创新能力下降的担忧。人工智能大模型并不能完全保证输出的精确性,可能混杂了许多包含有偏见和误导的内容。当大模型输出一些错误内容时,同样可能阻碍创新,让科研人员在错误方向上花费不必要的成本。

当前,得出人工智能能够取代人类、特别是人类的创造性工作,其结论为时尚早。相比于担心人工智能对创新型人才的取代,我们更需要担心模型使用的低廉成本会让优秀的创作者淹没在海量的AI创造之中,从而导致“劣币驱逐良币”,扰乱对创新的激励机制,这意味着人类社会需要制定方法甄别人类创造和机器创造,确立准则明确机器创造的使用场景和界限,并通过合理的激励机制同时发挥人类和大模型的潜力,使其真正协同开展创新型工作。

3 大模型的治理议题

大模型带来了诸多新的治理挑战,如何应对这些挑战是全社会共同面对的重大议题。以图灵奖得主Bengio为首的千余位科学家联名要求暂停大模型开发六个月,以给人类社会更多的准备时间。与Bengio同期获得图灵奖的Yann LeCun则反驳道:没有必要在发明汽车之前就研究安全带。事实上,对政府和社会而言,即使有六个月或是更长的研究停摆也并不能改变大模型已经到来的事实。如果缺少始于足下的治理方案,六个月的研究停摆也无法解决大模型的治理难题。必须承认的是,在大模型到来之后,仅仅依靠政府出台法律法规和相关政策或仅仅依靠科研机构和互联网企业研发技术手段都不能完全应对新的风险和挑战。2023年4月11日,国家网信办公布了《生成式人工智能服务管理办法(征求意见稿)》,表现出我国对于大模型治理的高度关注和积极响应。我们尝试总结短期内的努力和发展方向,提出急需关注的技术治理议题,同时分析技术路径存在的固有缺陷,论证大模型的治理离不开技术与行政的双重保证,任何一环的缺失都会导致无法弥补的潜在危害。
3.1 模型审计

模型审计旨在仅仅通过访问黑盒模型,在无法获取模型参数的情况下检测模型的某种属性。近期的模型审计研究主要关注公平审计,但是模型的鲁棒性、泛化性等指标在未来可能都会是模型审计的重要议题。芝加哥大学数据科学与公共政策中心2018年公布的数据偏见检测工具Aequitas,佐证了算法偏见检测工具的可行性与可靠性。OpenAI首席执行官Sam Altman近期表示,OpenAI正在研发帮助学校识别人工智能参与作弊的审计技术。通过模型审计,可以了解使用该模型可能面临的风险。对那些隔离于大模型技术壁垒以外的主体而言,模型审计无疑为其提供了自我保护的重要参考,使其不至于暴露于大模型可能带来的隐性风险之中。换言之,大模型的使用者可以通过简单的准则判断使用大模型的潜在风险。

大模型的模型审计依然面临许多悬而未决的难题,模型审计在技术实现上无疑充满挑战,比如如何在有限的访问次数下保障模型审计的准确性。但相较于模型审计在技术上遇到的困难,一个更大的难题在于模型审计的资格。政府目前不一定能够具有审计大量大模型的技术能力,政府也不一定是唯一合适承担模型审计角色的机构。由权威第三方机构进行审计和测评的模式在许多其他行业中十分常见,但是暂时还没有具有足够权威性的机构能够承担这一职责,该类机构如何获得合法性也是一个开放性问题。值得担心的是,有足够的技术能力与经济能力承担这一职责的企业可能与开发大模型的企业高度重合。如果模型审计模式最终成为同行评议,而这些企业间又恰巧达成了某些默契,模型审计就不能保证足够的公正和透明。

总而言之,模型审计可以在充满不确定性的大模型应用中提供低门槛、易使用的准则,可以准确界定模型在不同维度的风险系数。但是,推动模型审计的规范化,要求政府在短期内大幅度提升自身技术能力与技术人才储备,同时也对一种新的监管模式提出了诉求,即塑造政府以外的具有公信力的模型审计机构。
3.2 机器遗忘

在过去数十年间,人类一直致力于推动机器学习的研究,让算法能够学习数据中的知识,并转化为模型自身的预测能力。随着大模型热度不断提升,机器遗忘(machine unlearning)概念不断升温。在短期内,仅通过法律法规和政策保障大模型的知识产权和隐私权是困难的,这促使研究人员寻找一种技术干预的方式,能够在避免模型重新训练的前提下删除模型中来源于特定数据的信息与知识。模型重新训练需要付出巨大代价,互联网企业很难接受短时间内高频率地删除部分隐私数据,在新数据集上训练新的模型。机器遗忘让训练好的模型遗忘掉特定数据训练效果,从而在保留原模型预测能力的基础上保障知识产权与隐私权。

机器遗忘面临和模型审计类似的挑战,即寻找合适的执行主体。对于开发大模型的企业来说,机器遗忘意味着模型在某些任务上性能下降和提高模型微调成本。即使相较于重新训练,机器遗忘可以很大程度降低该类成本,但是当这些企业同时扮演参赛者和裁判两重身份的时候,我们无法保障它们会严格遵循规则。举例而言,相比花费新的成本且降低模型的性能,从法律角度争取数据的所有权和使用权似乎是更符合经济效益的策略。同时,有关大模型机器遗忘的通用规则尚不明确,哪些数据应该被模型遗忘,仅仅依赖于企业自觉和舆论压力。我们相信,在合适的规则下,机器遗忘会成为非常重要的议题。机器遗忘为大模型性能与社会伦理之间提供了一种可能的权衡,使得以较小的成本使大模型符合社会伦理成为可能。
3.3 政府技术部门的扩容

在有关模型审计和机器遗忘的讨论中,我们发现在有关大模型的多方博弈中,大型企业同时扮演参赛者和裁判的情况十分常见。此时政府理应在一定程度上扮演监管者的角色,研判大模型使用可能的社会危害与道德风险。在讨论政府应该以怎样的角色如何参与大模型的监管之前,一个迫切的问题是政府技术能力储备的不足。无论是模型审计还是机器遗忘,都要求政府具有与大型互联网企业相当的人工智能技术人才储备。技术外包是中国政府过去所熟悉的模式,为中国政府的数字化改革提供了巨大助力。在技术外包过程中,阿里、腾讯等企业帮助各级政府开发了“浙政钉”等优秀的应用程序。在大模型来临之后,政府曾经的技术外包合作伙伴成了其技术监管的对象,再通过外包完成这一治理任务是不合适的。政府需要扩容自身技术部门,提高自身技术能力,亲自完成大模型的监督任务。

政府短期内扩容技术部门可能面临两大核心挑战:人才竞争和组织结构变革。大模型的到来使得人工智能领域人才的身价水涨船高,政府部门很难像大型企业一样通过优厚薪酬待遇参与人才市场的竞争。如何在控制成本的前提下提升政府的竞争力,可能是政府面对的紧迫挑战。随着政府人才部门体量的增加,新的人才部门显然会在政府运作中扮演和网信办等传统技术部门不同的角色。如何通过政府组织架构的设计,提升政府技术部门与传统职能部门之间的行政效率,急迫而重要。

政府技术部门的扩容是应对大模型监管挑战的必然选择。政府需要通过各种手段提升自身的人工智能技术能力,为大模型监管提供坚实的支撑。政府在扩容过程中也需要正视各种挑战,积极寻求解决方案。此外,政府技术部门的扩容还需要考虑资源的分配和利用。政府在数字化改革中已经投入了大量资源,这些资源应该如何在大模型治理时进行合理分配?如何让技术部门与其他政府部门更好地协作,实现资源共享和优化利用?这些都是政府技术部门扩容所需要面对的实际问题。

4 大模型治理中的技术与行政

模型审计等技术在一定程度上可以应对大模型带来的治理风险,但是仅仅依靠技术是不充分的。最新有关大语言模型审计的研究分析了模型审计无法完全消除风险的原因,指出并非所有与大模型相关的风险都可以通过技术手段解决,例如大模型对于创新经济可能的伤害。我们应当对大模型的技术治理手段保持足够的信心,但同时需要避免“过度承诺”的陷阱。技术并非万能,我们需要思考如何使用行政力量弥补以技术为导向的治理机制。

确保人工智能大模型风险可控所必须的模型审计,需要具有公信力的机构完成,而政府无疑是承担这一责任的合适候选。这意味着仅仅研发模型审计算法并不足以解决问题,社会层面的行政约束同样重要。同理,机器遗忘算法的研发依赖于技术,其落实则依赖于行政力量。在人工智能大模型治理中,割裂地选用技术与行政两种路径都是错误的。大模型的治理需要技术和行政两种机制有效结合。

随着大模型在越来越多场景中部署以及其性能不断提升,大模型带来的新挑战会远远超出前述内容。但是可以确定的是,大模型带来的挑战越大,就越需要技术和行政手段的高度协同,在治理实践中技术和行政对于彼此的需求是天然的。在过去的治理实践中,不同主体割裂地使用行政和技术的力量。各国政府出台了大量政策法规尝试限制人工智能大模型的应用场景,但是这种粗颗粒度的治理方式限制了大模型的使用潜力,也无法规避大模型所有的潜在风险,尤其是那些直觉上不易感知的风险。

相对地,许多技术人员开发了大量提升模型公平性与隐私性的算法,但是这些算法并未在应用场景中广泛受到青睐,技术矫正手段带来的模型性能损耗使得许多使用主体对其避之不及。而且,大量有关公平算法的研究拘泥于公平性目标与模型性能的优化问题,缺少对公平概念本身的考虑。行政力量可以为技术手段的实现提供保证,而技术手段可以对粗颗粒度的行政方案提供技术层面细颗粒度的补充。同样地,治理大模型的技术手段也离不开行政治理中诸如善治理念的指导。

反思技术治理这一概念,不难发现它本身就包含着对技术与行政手段协同作用的要求。与技术治理相抗衡的情形是技术博弈中的物竞天择,即不同主体通过技术博弈争取优势地位。有关人工智能模型攻击的研究表明,通过适当手段攻击可以大幅降低模型的表现,如黑盒攻击、数据投毒等。在缺少行政手段指引和约束的情况下,大模型的一大隐患是:不同主体在强者生存的环境中通过技术手段互相攻击以达成一种整体环境的平衡。这种平衡的背后,不仅是无谓消耗大量资源的技术创新生态,更是大量暴露于技术攻击下的普通公众。技术治理的目的在于构建秩序,在有效利用社会资源的情况下最大化引导技术手段发挥自身的优势,为利益相关的不同主体提供保障。在人工智能仅仅作为工具的时代,政府可以单纯通过行政力量约束模型的使用以避免技术的误用和滥用。而在大模型的治理中,行政与技术的协同变得更加重要,因为大模型本身也成为了治理对象。行政力量需要通过技术手段实现细粒度的审查与校准,技术手段需要行政力量提供保障和引导。只有在两者协同的条件下,大模型的技术治理才能精细有效,科技向善才得以成为可能。

我们需要在技术和行政两种机制之间寻找平衡点,建立起科技创新与治理的良性互动机制。这种平衡不仅体现在技术与行政之间的合理分工,更应该体现在两者之间的相互促进与交替优化。我们可以将目标概括为:行政更好地规范技术,技术则赋能行政目标。大模型提出的独特治理诉求在于行政和技术间的关系需要从合作走向融合。在过去的技术与行政关系中,我们更多聚焦于技术与行政在合作关系中各自扮演的角色和承担的责任,在这一体系中政府总结提炼行政目标,可以通过外包完成技术实现。在通过人工智能模型进行贷款审计时,模型只是治理工具,技术外包的逻辑是自洽的。而当我们需要通过模型审计模型时,理解审计对象本身也成为了行政手段的必要条件。这意味着大模型治理中的行政与技术协同不是一加一大于二的问题,技术和行政一起构成了大模型治理的基本单元。技术与行政的融合,包括人才的融合和治理理念的融合。当我们意识到技术与行政不仅仅是合作关系时,我们会发现大模型的治理需要技术与治理复合背景的新型人才,技术人才需要追求善治,治理人才需要理解技术困境。治理理念的融合则是对于技术与行政二分的扬弃,在大模型治理中,技术手段会成为行政力量中天然的组成部分,而科技向善也会从观念走向实践。

此外,政府需要加强对人工智能产业的引导和规范,同时需要注重培育公众对人工智能的认知和理解,提高其对人工智能大模型治理的参与度。例如在大模型的公平性矫正研究中,研究人员已经提出了大量用于检测公平性的公平性指标,但是哪一种公平性度量方式才更加适合具体的治理实践,则在一定程度上取决于公众的公平观念。

另外,在处理大模型治理中出现的不确定性和风险时,政府应该采取开放透明、多方参与、协同治理的方式,与社会各界协商、研究解决方案。可以看到,在大模型治理中,技术和行政力量都是不可或缺。只有两者相互配合、相互促进,才能建立起一个稳健、有效、可持续发展的治理体系。我们需要更好地掌握人工智能大模型的运作原理,并在技术和行政两个层面上建立一套完善的治理框架,以确保人工智能大模型风险可控,并推动其在经济、社会等各个领域更好地服务于人类社会。

当然,我们同样需要避免对大模型治理的过度乐观。技术革新不可避免地具有一定程度的不可控性,尤其是人工智能大模型这样具有变革力量的技术。技术与行政的双重保证并不意味着未来大模型不会带来新的治理挑战。在未来,模型审计和机器遗忘以外的更多技术问题也会成为大模型治理的重要议题。当技术与行政手段割裂时,面对这些新的议题,技术力量缺少对治理目标的充分把握,而行政力量则缺少对技术问题的敏锐感知。随之而来的治理滞后和失灵可能会放大大模型带来的危害。技术与行政手段的结合可以保证治理方案兼具善治的理念和技术实现的高效。政府技术部门的扩容可以从人员构成上首先完成技术与行政的融合,当技术人员成为政府治理主体的重要组成部分时,这种人员层面的整合就可能逐渐演变为治理理念与实现路径的整合。

5 结论

无论我们是否做好准备,人工智能大模型的时代已经到来,也带来了全新的治理挑战。大模型开发的成本壁垒与技术壁垒已经导致不同主体在技术参与能力上严重的不对等。受到壁垒隔离的群体迫切需要新的验证大模型可信度的途径。大模型部署导致的知识产权争议进一步提出了治理诉求,要求保护不同群体面对大模型可能受到的权益损害,这些问题可能导致社会整体的创新能力下降。在缺少监管和引导的情况下,大模型部署产生的影响可能与其初衷背道而驰。

人类社会并未完全准备好面对大模型时代的诸多风险,但是大模型治理绝不能因噎废食,必须承认大模型部署已经给社会中的许多人带来了切实利益。基于对人工智能浪漫想象的担忧不应该成为遏制人工智能大模型发展的理由。模型审计和机器遗忘等在未来都可能成为确保大模型可控的有效技术手段。而模型审计和机器遗忘并非单纯的技术问题,而是技术与行政需要共同面对解决的新挑战。为了应对这一挑战,政府需要尽快在人才市场中发力,扩充技术部门人才储备,强化自身技术能力。人工智能大模型无疑是人类社会发展至今难得一遇的烈马,合适的驾驭方式才能够让其助力社会发展与创新。

在人工智能大模型时代,技术与行政需要共同努力,走向融合,才能够实现人工智能在社会中的最大价值和最小风险。政府需要制定更加完善的法律法规,规范大模型的开发、部署和使用。同时,政府应该加强监管力度,确保大模型的可信度和安全性;政府还应该推动建立权威的模型审计机构,为社会提供可靠的模型审计服务。此外,在大模型时代,企业应该承担起社会责任,在注重技术创新的同时注重社会效益,确保自己开发的大模型不会损害公众权益,并且承担起相关责任。

作者:郁建兴1,2、吴超3、刘宇轩3*

1 浙江工商大学

2 浙江大学社会治理研究院

3 浙江大学公共管理学院

项目来源:教育部哲学社会科学研究重大课题“全面建设社会主义现代化国家新征程中加快实现共同富裕研究”(21JZD019);浙江省哲学社会科学规划重大项目“数字赋能推动共同富裕的体制机制研究”

本文转载自微信公众号中国行政管理,原载于《中国行政管理》2023年第4期

发表回复

您的电子邮箱地址不会被公开。 必填项已用 * 标注