400-123-6666

新闻资讯 分类
j9九游复旦大学魏忠钰教授:社交媒体 Agent 大规模仿真 Agent Ins

  j9九游复旦大学魏忠钰教授:社交媒体 Agent 大规模仿真 Agent Insights社交媒体在当代社会中扮演着关键角色,被视为社会活动的基石之一。复旦大学大数据学院魏忠钰教授拥有近 15 年自然语言处理的研究经验,且对于社交媒体技术底层机制有着深入的理解。在他的带领下,研究团队成功构建了一个能够对社交媒体 Agent 在不同情境下的表现进行多角度评估的环境,并与真实情况进行对比分析。在这篇文章中,我们将与魏教授一同探讨他对 Agent 的看法以及他对社交媒体 Agent 的研究成果。Enjoy

  解决问题:社交媒体是社会运动的基石,模拟公众反应预测潜在影响非常重要,团队介绍了混合方法模拟社交媒体用户,核心用户由 LLM-based Agent 驱动j9九游会真人游戏第一品牌,普通用户由ABM 模型驱动,同时构建了类似 Twitter 的社交环境,复制 Agent 触发事件后的响应动态,对用户互动以及集体态度进行观测

  使用效果:团队成功构建了一个类 Twitter 的模拟环境能够实现多角度的模拟结果与真实情况的差异测评,最终仿真的情绪变化曲线跟真实世界的情绪变化曲线极其接近

  评估结果:在立场方面,对于 Metoo 和 BLM 数据集,真实和模拟的用户立场平均准确率可以达到 70% 以上。在行为模拟方面,总体准确率超过 75%

  魏教授:我一直以来都从事自然语言处理的相关研究。博士期间关注更多的社会媒体的内容分析,包括社会媒体短文本处理,并基于相关技术分析网络传播内容和现实世界发生事件的关联。博后期间,我开始跟进计算论辩和多模态的研究课题,希望可以对社会媒体中更丰富的信息以及更有深度的信息进行理解。在加入复旦大数据学院之后,我成立了数据智能与社会计算课题组,致力于使用自然语言处理与机器学习解决交叉学科问题,其中涉及计算工具的设计,以及算法的落地。

  学科交叉可以覆盖的领域很多,涉及到医疗、金融、司法和社媒分析等,在大模型出来之前,我们会针对单一任务对模型进行设计,然后采集场景的数据,完成模型训练。这样的研究范式,在实际场景的使用中,存在模型很难复用的挑战。大模型出来之后,启发了一种基础模型,模型微调,场景精调的研究范式,很大程度上缓解了这种问题。给推进各个行业的研究都带来了新的机会。我们团队也利用相近的方,推出三个不同场景下的模型,包括:司法大模型、医疗大模型、金融大模型,目前正在准备推出多模态内容分析大模型。

  Agent 引起我们的关注,主要是因为我们发现了建立在通用大模型之上的 Agent 能力不足,而构建的高质量行业大模型也不能完全解决使用的需求,因此我们想到了可以在特定场景的垂直大模型基础上进行 Agent 构建。举个例子,医疗问诊是一个非常复杂的场景,在医院里面有很多不同的场景,问诊过程中包含多个子任务,我们实际上可以用多智能体协作来搭建这个场景,包括症状问询,身体检查j9九游会真人游戏第一品牌,症状分析,专业医生评估等环节,可以一定程度上复现医院问诊的流程,解决问诊繁杂的痛点。

  魏教授:我觉得绝大部分人不用关注基模本身的训练,只要能在大模型基础之上,在各个场景用 Agent 形式构建好应用,再针对 Agent 场景做模型优化就够了。微调的部分,也可以有多个阶段的划分。比如我们在做医疗大模型的时候,也做过两阶段微调,第一阶段微调用 40 万数据样本,第二阶段微调用 2000 个精细化构建的数据样本。用 SFT 的方式微调之后,整个模型性能提升非常明显。因此在微调的过程中,细化样本对模型带来的影响是非常大的。

  魏教授:我对社交媒体的研究可以追溯到 2010 年。社交媒体诞生之初,社交网络世界是一个新鲜的物体,一些人尝试研究人在社媒中的行为与物理世界发生的事之间的关系。我们在 2010 年初做过一个通过社交媒体内容预测英国大选结果的工作,本质上就是在做事件间的相关性预测。

  回到现在的时间点,社交媒体已经完全变成了人类社会的一部分。对社交媒体数据的获取远容易于物理世界,因此对社交媒体内数据和内容的理解,能够帮助我们更好的学习特定群体的行为,同时发现社区内信息的传播方式。在理解的基础之上,我们还希望通过社交媒体去影响一些社会事件,给予适当信息内容调和,使整个网络环境变得更好。例如未来如果有人在社交媒体上吵得不可开交时,就对目标对象投送些笑话,让他心情愉快,这说不定也是正向的干预手段(笑)。

  复旦大学的唐世平教授曾利用 ABM 的方式进行仿真预测,ABM 能够在社交媒体高效率的对大规模用户行为进行仿真,缺点是个体建模能力较弱。大模型出来之后,大家开始利用多 Agent 协同进行仿真,难度比想象得更大。斯坦福小镇最多一、二十个 Agent,但对于大规模(成千上万数量级)仿真来说,大模型模拟的准确度、真实度、丰富度、记忆完整度都是非常消耗资源的。

  这样的一个难点启发了我们这篇论文,即仿真大规模用户时进行用户区分。社交媒体社区中的成员活跃度也遵循二八定律,很多 KOL 实际上决定了绝大部分的言论走向,我们只要把这些人精确建模出来,其他的跟随者用 ABM 来建模,就可以用混合用户的方式去完成大规模用户的仿真了。

  魏教授:我们用了简单抽象的方法。首先针对单一事件发生采样 1000 个用户,其中 300 个核心用户用大模型驱动,剩下的 700 个用 ABM 完成。随后我们构建一个仿真 Twitter 平台,假设用户每六小时发一次言,首先通过信息广场发布进行传播,其次通过剩余用户的朋友圈进行传播。每位普通用户拥有前置信息的情况下,基于每六小时的信息传递行动进行模拟,完成多 Agent 协同。

  魏教授:在核心用户的选择上有很多不同的方法。比如,选择特定时间内粉丝量最多的用户以及发言频次最高的用户,在特定活动中言论被转发最多的用户等。在不同维度信息的基础上,我们把所有参考量进行综合,然后给用户排序,判定前 300 个 Agent 是核心用户,后 700 个 Agent 是普通用户。

  在过程中,我们专门设计了一个叫 SoMoSiMu-Bench 的数据集,是由这三个真实世界事件相关的用户推文内容组合而成的。选定这三个事件是因为它们是我们过去两三年看到比较有影响力的网络社会活动,讨论文本总数有几千万条。

  魏教授:首先我认为如何评估仿真效果这件事就是很有挑战的事,怎么样算仿真的好,怎么样算仿真的不好,都很难评价。我们这篇文章对置信度的理解是,仿真用户框架得出的结果和该用户的真实世界立场是否一致。目前结果显示,我们在这两个大颗粒度仿真效果中看到的效果还可以,可以证明仿真的结果并不粗糙。

  从上图真实事件以及仿真环境下的情绪对比来看,仿真的情绪变化曲线跟真实世界的情绪变化曲线极其接近,所以我们对仿真结果比较乐观。

  绿洲:您有丰富的自然语言处理研究经验和场景落地实战经验,您觉得 Agent 在 LLM 之上帮助使用者在解决什么实质问题?

  魏教授:A gent 本身在解决大模型的工程化落地。我们推出的很多行业大模型在自然语言回答上已经做得很好了,然而用户到底拿来解决具体什么问题并不明确, 因此 我们需要帮落地场景构建 Agent 场景,告诉用户我们的行业大模型能够帮你解决一个端到端的问题,因此我很认同 Agent 本质上是在实现大模型的工程化落地。

  魏教授:我认为目前底座能力的发展已经到了某一个阶段,在当前技术路径下,后面的技术迭代惊艳程度不会有之前那么大。后续的发展,更多是消化这波技术革新,但它肯定会极大程度地影响我们的生活。

  另外我想补充的是,并非每个团队都有能力去微调大模型,微调比大家想象得更难,它的难度在于高质量的数据治理。过去一年我跟行业的人接触,发现大部分人认为指令微调不难,觉得用开源工具和数据拿回来跑一跑就能实现了。事实是训练出一个能用的模型的门槛不低,其中的数据构建方法具有很高的技术含金量j9九游会真人游戏第一品牌

  魏教授:人的认知差异很大,人在信息传播过程当中也会产生不实或者不准确的信息,在社交媒体上获取言论观点的时候,发出言论的这波人到底是人还是机器对个体差别可能没有那么大。当然,现在的网络世界已经充斥了一部分虚假信息,而 Agent 的涌入,会让这个现象更加严峻,那么政府监管方面的压力就会比较大。

  魏教授:传统的 KOL、名人仿真会面临这方面的问题,可能会面临本人的诉讼。但在做大规模人群模拟的时候,这方面的问题或许不是那么严重,因为过程中的人群模拟是基于个体的模糊建模。例如我们想模拟 30-40 岁左右的女性,年收入 10-20 万之间,只需要根据这几个条件进行人群模拟就好,这里面存在的可能个人数据安全问题是比较小的。

  魏教授:利用大模型做大规模用户仿真是很有现实意义的,传统文科研究利用人工的方式进行调研,动不动就牵涉成千上万的个体,过程繁杂且成本高。我们的方法能够让社会调查以极低的成本完成。我们也期待看到社交媒体领域的 Agent 未来应用在越来越多的场景,为社会提供有用的价值贡献。

官方微信 关闭