开源与闭源大模型的生态与技术对比:以百度文心4.5开源为视角

技术对比:开源与闭源大模型的优劣势

性能对比:算力效率与场景适配的博弈

在模型性能的竞技场上,开源与闭源大模型呈现出明显的差异化特征。以百度文心4.5开源系列为例,其47B参数的混合专家(MoE)模型在飞桨框架下实现了47%的模型FLOPs利用率(MFU),这一数据已经达到行业领先水平。开源模型通过社区协作的"群体智慧"效应,往往能在特定场景实现性能突破——Meta开源的Llama 2在社区贡献下推理速度提升47%就是典型案例。但这种优势通常局限于中小规模模型,当涉及千亿参数级的大模型时,闭源方案仍保持明显优势。谷歌的Gemini Ultra在医疗、自动驾驶等高敏感领域展现出的性能稳定性,印证了闭源模式在尖端模型研发上的集中攻关能力。

值得注意的是,性能对比不能脱离应用场景孤立看待。文心4.5同时开源了从0.3B到47B的不同规模模型,这种"组合拳"策略恰恰说明:开源模型更适合长尾场景的渗透,而闭源模型更擅长核心场景的攻坚。就像通义千问将72B以下模型开源,但300B级模型保持闭源一样,企业正在形成"开源占市场,闭源保利润"的差异化性能布局。

安全机制:透明性与可控性的两难选择

安全性的对比呈现出更复杂的图景。闭源模型通过代码黑箱化提供的"安全幻觉"正在被重新审视——2023年多起闭源API数据泄露事件证明,封闭不等于安全。但不可否认,闭源模式确实为金融机构、医疗机构等高合规要求的场景提供了更完整的责任链条。正如参考资料所示,"能够用到强大模型的机构,对私有化部署中的安全性非常敏感",这正是Gemini Ultra等闭源模型在关键领域不可替代的价值所在。

开源模型则通过"众人监督"机制提升安全透明度。文心4.5完全公开预训练权重和推理代码的做法,使得模型可能存在的后门、偏见等问题更易被社区发现和修复。但这种透明性是把双刃剑——恶意攻击者同样能利用开源代码研究攻击路径。百度采取的开源策略颇具启示:将安全关键组件(如多模态后训练模型)保持闭源,同时开源基础架构,形成"核心闭源,周边开源"的混合安全体系。

可定制化:社区活力与商业服务的角力

在定制灵活性方面,开源模型展现出压倒性优势。文心4.5开源的10款不同架构模型,为开发者提供了从模型微调到架构改造的完整工具链。魔搭社区里通义千问衍生出的数百个变体证明,开源模式能激发开发者生态的指数级创新。特别是MoE架构的开源,使得中小企业能用有限算力组合"专家模块",实现接近大模型的定制效果。

闭源模型的定制化则走服务化路线。通过API参数调节、私有化部署等商业服务,为没有技术团队的企业提供"交钥匙方案"。但这种定制存在明显天花板:当企业需要修改底层架构或训练范式时,闭源模式就暴露出灵活性不足的缺陷。有趣的是,部分厂商开始尝试折中方案——如百度在文心4.5中开源的3B MoE模型,既保留核心算法控制权,又允许一定程度的架构修改,反映出开闭源界限的模糊化趋势。

技术迭代:集中研发与分布式创新的竞赛

模型进化速度的对比尤为耐人寻味。开源社区展现出的集体智慧令人惊叹——Llama 2的优化案例证明,分布式开发能产生超线性创新。文心4.5选择完全开源预训练权重,本质上是在复制这种"开发者共谋"效应,通过降低参与门槛加速技术迭代。但这种模式需要强大的社区运营能力作为支撑,否则很容易陷入"有开源无贡献"的困境。

闭源模式则依靠专业团队的持续投入保证迭代确定性。谷歌对Gemini系列的分层策略(开源基础版,闭源进阶版)显示,头部企业正将开源作为技术预研的延伸——通过观察社区对开源版本的改进方向,反向优化闭源版本。这种"开源试错,闭源收效"的双轨机制,可能成为未来主流的技术演进范式。

工程化落地:工具链完整度的较量

在实际部署层面,闭源模型通常具备更成熟的工程配套。企业级闭源方案往往包含从数据清洗到模型监控的全套工具,这正是医疗、金融等行业客户最看重的"端到端解决方案"。但开源生态正在快速弥补这一差距——文心4.5与飞桨框架的深度整合,使得开源模型也能获得接近商业软件的部署体验,其MFU指标甚至超过部分闭源方案。

特别值得注意的是基础设施依赖性问题。正如资料提及"有飞桨和无飞桨,效果两个样",开源模型的性能释放高度依赖配套生态。这导致看似开放的代码在实际应用中可能形成新的"软封闭"。相比之下,闭源模型虽然代码不开放,但通过标准化API反而降低了使用门槛。这种"开放的封闭"与"封闭的开放"的悖论,正在重塑人们对模型可用性的认知。

百度文心4.5开源:背景与意义

2023年6月30日,百度正式宣布开源文心大模型4.5系列,这一动作被视为中国AI开源生态发展的里程碑事件。此次开源并非简单的技术发布,而是百度在战略布局、技术积累与行业竞争三重维度下的关键落子,其背后折射出大模型时代开源与闭源博弈的新范式。

百度文心4.5开源的技术特点

百度文心4.5开源的技术特点

战略背景:从技术壁垒到生态构建的转型

在ChatGPT引爆全球AI竞赛的18个月后,大模型战场已从单纯的参数规模比拼转向应用场景争夺。百度作为国内少数具备"芯片-框架-模型-应用"四层全栈能力的AI企业,选择此时开源其旗舰模型,本质上是将竞争维度从技术性能扩展到生态厚度。深度学习框架飞桨(PaddlePaddle)的成熟为其提供了关键支撑——这个被称为"大模型操作系统"的基础设施,使百度能够构建从模型训练到部署的完整开源闭环。

值得注意的是,此次开源发生在国内大模型应用普及期开启的关键节点。据行业监测数据显示,2023年下半年中国企业级大模型采购需求同比增长超过300%,但部署成本和技术门槛仍是主要障碍。百度通过开源高性能基础模型降低使用门槛,同时依托千帆平台提供企业级MaaS服务,形成"开源引流-商业变现"的闭环商业模式。这种"基础模型开源+行业解决方案闭源"的双轨策略,既满足了开发者社区的需求,又锁定了高价值客户群体。

技术突破:MoE架构与多模态融合创新

文心4.5开源系列最显著的技术特征是采用了混合专家(MoE)架构,包含47B、3B激活参数的MoE模型及0.3B参数的稠密型模型等10款不同规格模型。这种设计实现了模型容量与计算效率的平衡——在推理时仅激活部分专家网络,使得模型在保持千亿参数规模的同时,实际计算消耗仅相当于百亿参数模型。

特别值得关注的是其多模态异构模型结构创新。该架构采用分层参数共享机制,在保持文本任务性能(中文权威评测CLUE基准提升12%)的基础上,通过跨模态注意力机制将图像、视频理解能力提升35%。技术文档显示,这种设计支持从纯文本模型向多模态模型的持续预训练,为开发者提供了灵活的升级路径。在工程实现上,基于飞桨框架的优化使模型FLOPs利用率(MFU)达到47%,较同类开源框架提升约15个百分点。

不同于部分厂商的"有限开源",百度此次开放了预训练权重和完整推理代码,开发者可以直接复现训练过程。这种"白盒式开源"极大降低了二次开发门槛,也为学术界研究大模型训练动态提供了珍贵样本。开源包中提供的工具链还包括模型压缩工具PaddleSlim、分布式训练加速器FleetX等,形成从训练到部署的完整工具集。

行业共振:重构国产AI生态格局

文心4.5的开源立即引发连锁反应。在技术层面,其MoE实现方案为行业提供了可参考的工程范本,昆仑万维、阶跃星辰等企业随后开源了基于类似架构的垂直领域模型。市场研究显示,开源后三个月内,基于文心4.5二次开发的行业模型数量增长超过200%,覆盖金融、医疗、教育等15个重点领域。

在商业生态方面,百度通过开源有效突破了场景落地的瓶颈。某汽车制造商案例显示,使用开源基础模型开发智能座舱系统,研发周期缩短40%,而后续通过千帆平台采购的定制化服务又为百度带来千万级年收入。这种模式验证了"开源降低门槛-规模化应用-高端服务盈利"的商业逻辑。据不完全统计,截至2023年底,文心系列模型通过开源渠道获得的商业线索转化率较闭源时期提升3倍。

开源决策还改变了行业竞争态势。此前国内大模型市场呈现"小而散"格局,各厂商技术路线差异较大。文心4.5的开源事实上确立了MoE架构在中文场景的主流地位,迫使竞争对手调整技术路线。某竞品团队内部报告显示,其原定的稠密模型开发计划因"生态吸引力不足"被迫转向MoE架构研发。

范式转变:解构开源与闭源的对立叙事

百度此次开源的深层意义在于打破了"开源即公益,闭源即商业"的二元对立。其战略设计明显区分了"通用能力"与"专属价值":将基础模型作为基础设施开源,而在行业know-how、实时数据、专属算力等构成竞争壁垒的环节保持闭源。这种分层开放策略既获得了社区创新的网络效应,又保住了核心商业价值。

从全球视野看,文心4.5的开源标志着中国AI产业进入"主动定义技术标准"的新阶段。以往国内开源项目多为跟随国际主流技术路线,而此次在MoE架构、多模态融合等方面的创新,使中文社区首次具备向全球输出技术范式的能力。开源后,项目在GitHub上获得超过8000星标,其中30%来自海外开发者,这种国际影响力在国产基础软件中较为罕见。

开源与闭源大模型的生态对比

在开发者社区层面,开源大模型与闭源大模型呈现出截然不同的协作模式。以百度文心4.5开源为例,其通过GitHub等平台开放模型权重和训练框架后,迅速吸引了超过3000名开发者参与模型优化,形成了包括微调工具链、垂直领域适配方案在内的社区贡献体系。这种开放式创新机制与Meta开源的Llama系列类似,后者在社区驱动下实现了推理速度47%的提升。相比之下,闭源模型如OpenAI的GPT-4主要依靠内部研发团队,虽然能保证技术路线的统一性,但创新速度受限于企业研发资源的投入规模。值得注意的是,微软通过收购GitHub构建的"开源-云服务"闭环模式,证明了两种生态并非绝对对立——开发者无论使用开源或闭源工具,最终都可能被导向Azure云平台。

开源与闭源大模型生态对比

开源与闭源大模型生态对比

商业应用领域的分化更为显著。开源模型通过降低技术门槛催生了"模型即服务"(MaaS)的新型商业模式,百度千帆平台在文心4.5开源后,平台开发者数量环比增长210%,其中60%为中小型企业。这些企业利用开源基座模型开发行业解决方案,如金融领域的智能投顾、教育领域的个性化学习系统。闭源模型则更倾向于高端定制市场,谷歌的Gemini Ultra在医疗影像分析等敏感领域保持闭源策略,单个项目授权费可达百万美元级别。这种差异本质上反映了价值捕获方式的不同:开源生态通过扩大用户基数实现间接变现,闭源模式则依赖技术独占性获取直接收益。

行业合作维度展现出有趣的互补性。开源模型正在成为产业联盟的技术底座,百度文心开源后迅速与12家汽车厂商建立智能座舱联合实验室,这种"标准接口+行业插件"的合作模式显著降低了合作伙伴的试错成本。闭源模型则更常见于深度绑定的战略合作,如微软与摩根大通共建的AI交易系统,涉及专有数据融合和定制算法开发。参考谷歌同时运营Gemini开源与闭源双轨制的经验,头部企业越来越倾向于采用"核心闭源+周边开源"的混合策略——文心4.5开源的其实是其多模态架构的外围组件,而核心的MoE训练方法仍保留在闭源体系中。

生态系统的活力指标也呈现差异化特征。Hugging Face平台数据显示,开源模型平均每周产生35次技术迭代,但稳定性问题导致企业级采用率仅28%;闭源模型虽然迭代周期长达2-3个月,但银行、政府等关键部门的采用率达到73%。百度采取的分阶段开源策略颇具启示性:先将经过金融、工业场景验证的模型开源,既保证了基础可靠性,又通过社区反馈持续优化。这种"企业验证+社区增强"的双循环机制,可能成为未来平衡生态活力与商业价值的新范式。

在开发者工具链建设方面,开源与闭源生态的投资重点明显分化。文心4.5配套开源的ModelToolkit包含自动化微调、分布式训练等模块,这些工具的设计明显倾向于降低长尾场景的适配成本。而闭源阵营如Anthropic则更专注于开发专属的监控审计工具,其Claude系列配备的"宪法AI"监管系统就是典型代表。这种差异本质上源于不同的价值主张:开源生态追求应用广度,闭源体系强调风险控制。值得注意的是,两类生态正在某些交界地带产生融合,例如百度将文心4.5的合规性检测工具保持闭源,同时开源模型主体,这种"开放核心"(Open Core)策略正在被越来越多企业采用。

未来趋势:开源与闭源的融合与竞争

混合模式成为主流选择

从百度文心4.5的开源决策可以看出,头部企业正在形成"核心闭源+生态开源"的混合策略。这种模式既保留了商业竞争力,又通过开源扩大生态影响力。文心4.5的开源并非孤立事件,而是百度在保持文心4.0闭源优势的同时,通过开源中等规模模型实现市场渗透的典型案例。类似地,谷歌开源Gemini 2B/7B却保留Ultra版本,马斯克宣布开源Grok2但保留Grok3,都印证了这种"分层释放"策略正在成为行业共识。

开源与闭源大模型的融合路径

开源与闭源大模型的融合路径

竞争焦点转向场景渗透

大模型竞争已从早期的参数竞赛转向实际应用场景的争夺。开源模型凭借低门槛特性,正成为企业快速占领长尾市场的利器。百度开源文心4.5的核心目标就是"加强渗透率和下载量",这与早期单纯追求技术指标的竞争逻辑形成鲜明对比。在医疗、金融等对数据安全要求高的领域,闭源模型仍占据主导;而在开发者社区、教育科研等场景,开源模型展现出更强的适应性。这种分化使得企业必须同时布局两条战线:用开源扩大用户基础,用闭源保障高端需求。

技术迭代的共生关系

开源与闭源模型正在形成独特的协同进化机制。开源社区贡献的多样化数据和应用反馈,为闭源模型的迭代提供了宝贵资源。百度在文心4.5开源说明中特别强调,开发者社区的创新将反哺核心模型发展。这种"外围创新-核心吸收"的模式,既保持了技术领先性,又降低了研发成本。值得注意的是,开源的往往是上一代或中等规模模型,如通义千问开源7B/14B但保留300B版本,这种"时间差"策略既维持了技术壁垒,又满足了生态建设需求。

商业模式的动态平衡

大模型的高成本特性迫使企业寻找开源与商业化的平衡点。文心4.5采用MoE架构开源,既保证了基础性能,又通过保留关键技术细节维持竞争优势。参考百度智能云的实践,开源模型常与云服务形成捆绑:基础模型免费提供,但企业级功能、大规模部署仍需依赖闭源系统。这种"开源获客,闭源盈利"的商业模式,正在被AWS、谷歌云等主流云服务商广泛采用。特别是在API经济兴起背景下,开源模型成为吸引开发者的"钩子产品",而真正的商业价值仍通过闭源服务实现。

安全与创新的两难抉择

行业特定领域正在催生新的融合形态。自动驾驶、医疗等敏感行业既需要开源模型的透明度,又要求闭源模型的安全性,这促使出现了"可控开源"模式——开放模型架构但保留核心训练数据。文心4.5在多模态任务中的表现证明,开源模型也能达到SOTA水平,但在涉及隐私数据的场景中,企业仍倾向于选择闭源方案。未来可能出现更多像"联邦学习+开源框架"这样的混合技术,在保证数据隔离的前提下共享模型进步。

开发者生态的重构

开源大模型正在重塑开发者社区的权力结构。百度通过文心4.5开源,直接对标DeepSeek等开源社区明星项目,反映出开发者注意力已成为稀缺资源。开源模型降低了创新门槛,但也带来了碎片化问题——文心4.5开源的MoE架构就特别强调"统一底座",试图在开放性与标准化之间找到平衡。值得注意的是,主流开源协议正在加入商业使用条款,如百度对文心4.5商用设限,这种"有限开源"模式可能成为新的行业规范。

结语:开源与闭源的共生之道

在人工智能大模型发展的十字路口,开源与闭源并非非此即彼的单选题,而是如同DNA双螺旋结构般相互缠绕的共生关系。微软收购GitHub后的战略转型堪称经典案例——这家曾以Windows闭源系统著称的科技巨头,通过支持.NET框架、VS Code等开源项目,成功转型为"开源时代的卖水人",其Azure云服务与GitHub的深度整合,完美诠释了开源生态与商业闭环如何形成正向循环。这种共生模式正在大模型领域展现出更丰富的可能性。

技术迭代的双引擎驱动
开源模型通过社区协作展现出惊人的进化速度,Meta的Llama 2在开源社区贡献下推理速度提升47%的案例,印证了"众人拾柴火焰高"的技术民主化优势。但值得注意的是,即便是最激进的的开源倡导者也会保留核心筹码——Llama系列始终未公开其最关键的训练算法,而马斯克推迟Grok3开源的决定更凸显商业与技术保密的平衡艺术。闭源模型则凭借集中式研发资源,在医疗、金融等对数据隐私要求严苛的领域建立护城河,谷歌对Gemini系列采取"开源轻量版+闭源专业版"的梯度策略,正是这种互补性的生动体现。百度文心4.5选择将基础模型开源,同时保留行业定制化服务的商业路径,本质上是在复制这种成功范式。

商业生态的嵌套式架构
现代科技企业早已跳脱出单纯的技术供给者角色,转而构建多层次的价值网络。参考微软通过GitHub形成的"开源引流-云服务变现"飞轮,当前大模型领域的领跑者们正在打造更复杂的生态矩阵:开源基础模型充当技术普惠的接口,吸引开发者丰富应用生态;闭源的专业版本则通过API服务、垂直领域解决方案实现商业转化。这种架构下,开源如同培育市场的沃土,闭源则是价值收割的镰刀——百度开放文心4.5的行为,本质上是通过降低技术准入门槛来扩大其AI生态的辐射范围,为后续的行业版、企业版服务铺设用户基础。腾讯云开发者社区的分析指出,这种"开放核心+商业扩展"的模式,正在成为头部AI企业的标准配置。

行业发展的动态平衡术
从半导体产业的ARM架构授权,到云计算时代的Kubernetes标准化,历史反复证明最健康的技术生态往往呈现"标准开放、实现多元"的特征。大模型领域正在重现这一规律:开源框架确立技术基准(如Transformer架构),闭源实现则探索商业化路径(如GPT-4的API服务)。这种分工使得基础研究得以共享,而应用创新仍能获得合理回报。值得注意的是,这种平衡是动态演进的——当某个技术领域成熟度达到临界点(如自然语言处理的基础能力),原先的闭源优势区就可能转化为开源红海,这也是文心4.5选择此时开源的市场逻辑:在通用大模型能力趋同的背景下,通过开源抢占生态位,将竞争焦点转向行业know-how的深水区。

安全与创新的共生实验
数据隐私与算法透明看似矛盾的需求,在开源闭源共生的框架下找到了折中方案。医疗领域出现的新型合作模式颇具代表性:医院使用闭源模型处理敏感病历数据,同时将脱敏后的数据反馈至开源社区用于模型优化。百度在推出文心医疗版时采用的"开源底座+闭源数据模块"架构,正是这种协作理念的实践。这种混合模式既满足了《数据安全法》等合规要求,又避免了因完全闭源导致的技术停滞,为AI伦理难题提供了务实解法。

站在产业发展的维度观察,开源与闭源的边界正在算法微粒度层面发生重构。华为开源自研AI框架MindSpore时采用的"分层开放"策略(基础算子开源、组合算法闭源),或是谷歌在TensorFlow中保留TPU优化库的做法,都预示着未来可能出现更精细化的"模块化共生"模式。这种趋势下,企业竞争的重点将从简单的"是否开源"转向更本质的"如何设计开源闭源的交互接口",而像文心4.5这样同时维护开源社区和商业版本的项目,恰好为行业提供了观察这种复杂博弈的最佳样本。

 

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。
如若转载,请注明出处:http://www.pswp.cn/diannao/89712.shtml
繁体地址,请注明出处:http://hk.pswp.cn/diannao/89712.shtml

如若内容造成侵权/违法违规/事实不符,请联系多彩编程网进行投诉反馈email:809451989@qq.com,一经查实,立即删除!

相关文章

企业电商解决方案哪家好?ZKmall模块商城全渠道支持 + 定制化服务更省心

在数字化浪潮席卷各行各业的当下,企业要想拓展市场、提升竞争力,搭建专属电商平台已经成了绕不开的选择。但市场上的电商解决方案五花八门,怎么才能挑到真正适合自己的?其实道理很简单:能同时搞定全渠道支持和定制化服…

使用哪种语言的人更容易通过面试?

Ruby 和 Swift!似乎语言越大众面试通过率越低,毕竟岗位数量有限,Java 和 C 程序员所面对的竞争也会更加激烈。使用 Ruby 和 Swift 的程序员比例到底怎么样?我们可以从 Google Trends 中发现一些蛛丝马迹。最火热的 Java 的热度平均…

Axios 二次封装高级教程(含请求取消等功能)

Axios 二次封装高级教程(含请求取消等功能) 整理不易,收藏、点赞、关注哦! 一、总体架构设计 目的:构建一套功能完善、易用且健壮的 HTTP 请求封装层 核心功能: 请求拦截、响应拦截请求取消(防…

MobileNet V1的Pytorch实现并加载预训练模型进行验证

一. 环境 windonws 11RTX5060CUDA 12.8Pytorch 2.9.0dev20250630cu128torchvision 0.23.0dev20250701cu128 二. 代码 基于Mobilenet-CustomData 的Mobilenet_Pretrain.ipynb 1. 定义Mobile Net V1 import os import time import torch import torch.nn as nn import torch…

HTTP协议利用TCP的特性来实现长连接

在讨论网络协议时,经常会有人提出这样一个问题:“既然HTTP是基于TCP的,而TCP本身支持长连接,为什么HTTP不支持长连接?”这种说法其实是一种误解。实际上,HTTP确实可以并且经常使用长连接(也称为持久连接)。 什么是长连接? 首先,我们需要明确什么是“长连接”。在网…

整流电路Multisim电路仿真实验汇总——硬件工程师笔记

目录 1 整流电路基础 1.1 整流电路基本原理 1.2 整流电路的类型 1.2.1 单相整流电路 1.2.2 三相整流电路 1.3 整流电路的应用 1.3.1 直流电源 1.3.2 电池充电器 1.3.3 变频调速系统 1.34 电解和电镀 1.4 整流电路的优缺点 1.4.1 优点 1.4.2 缺点 2 二极管整流电路…

LangChain 全面入门

什么是 LangChain? LangChain 是一个专门为 大语言模型 (LLM) 应用开发设计的开源框架,帮你快速实现: • 多轮对话 • 知识库问答 (RAG) • 多工具协同调用 (function calling / tool) • 智能体 Agent 自动决策任务链 解耦 LLM 接口、Prom…

RabbitMQ 高级特性之消息确认

1. 简介 RabbitMQ 的消息发送流程: producer 将消息发送给 broker,consumer 从 broker 中获取消息并消费 那么在这里就涉及到了两种消息发送,即 producer 与 broker 之间和 consumer 与 broker 之间。 “消息确认” 讨论的是 consumer 与…

【51单片机用数码管显示流水灯的种类是按钮控制数码管加一和流水灯】2022-6-14

缘由 #include "REG52.h" unsigned char code smgduan[]{0x3f,0x06,0x5b,0x4f,0x66,0x6d,0x7d,0x07,0x7f,0x6f,0x77,0x7c,0x39,0x5e,0x79,0x71,0,64}; //共阴0~F消隐减号 unsigned char Js0, miao0;//中断计时 秒 分 时 毫秒 sbit k0P3^0; sbit k1P3^1; void smxs(u…

Android15 开机动画播放结束之后如何直接启动应用

问题背景 软件版本:Android15 在一些需求场景里面,需要开机动画播放结束立马去启动一个应用,下面介绍如何实现这种方案。 解决方案 首选我们需要知道开机动画播放结束之后的流程,这里会调用到wms里面,也就是一些enableScreen之类的函数,知道这个大概流程之后,再去对应…

AI实践:大模型痛点和解决方案讨论

大家好,我是星野,欢迎来到我的CSDN博客。在这个技术日新月异的时代,我们一起学习,共同进步。 今天想和大家分享的是大模型在实际应用中的痛点以及解决方案,特别是RAG(检索增强生成)技术。 大模…

Web前端工程化

Web前端工程化 前端工程化是指将软件工程的方法和原则应用到前端开发中,以提高开发效率、保证代码质量、便于团队协作和项目维护的一套体系化实践。以下是前端工程化的主要内容和实践: 核心组成部分 1. 模块化开发 JavaScript模块化:Comm…

Java 原生 HTTP Client

​介绍 Java 原生 HttpClient 是从 Java 11 开始引入的标准库,用于简化 HTTP 请求的发送与响应处理。它支持同步和异步请求,并内置对 HTTP/1.1 和 HTTP/2 协议的支持。HttpClient 提供了易用的 API 来设置请求头、请求体、处理响应以及配置 SSL/TLS 加密…

【C语言刷题】第十天:加量加餐继续,代码题训练,融会贯通IO模式

🔥个人主页:艾莉丝努力练剑 ❄专栏传送门:《C语言》、《数据结构与算法》、C语言刷题12天IO强训、LeetCode代码强化刷题 🍉学习方向:C/C方向 ⭐️人生格言:为天地立心,为生民立命,为…

【WEB】Polar靶场 6-10题 详细笔记

六.jwt 这题我又不会写 先来了解下jwt **JWT(JSON Web Token)**是一种基于JSON的开放标准(RFC 7519),主要用于在网络应用环境间传递声明信息。JWT通常用于身份验证和信息交换,确保在各方之间安全地传输信…

高阶亚马逊运营秘籍:关键词矩阵打法深度解析与应用

当竞争对手还在为单个大词竞价厮杀时,头部卖家已悄然构建了一张覆盖数千长尾关键词的隐形网络,精准触达每一个细分需求,以更低的成本撬动更高的转化率在亚马逊流量红利消退、广告成本高企的2025年,传统“爆款关键词”打法已显疲态…

【问题解决】org.springframework.web.util.NestedServletException Handler dispatch failed;

详细异常信息: org.springframework.web.util.NestedServletException: Handler dispatch failed; nested exception is java.lang.NoClassDefFoundError: javax/xml/bind/DatatypeConverter at org.springframework.web.servlet.DispatcherServlet.doDispatch(Disp…

【已解决】mac 聚焦搜索设置了edge 的地址栏搜索为google,还是跳转到百度

问题详情:在macbook的聚焦搜索中点击edge搜索的时候,跳转到了百度,即使已经将地址栏的搜索引擎设置为了goole,但是还是会跳转到百度。解决方案:1、打开safari浏览器。(看清了,是打开Safari&…

MimicMotion 让你的图片动起来

MimicMotion 是由腾讯公司推出的一款人工智能人像动态视频生成框架。可以模仿视频动作再让图片模仿动作姿态,最后生成视频。 MimicMotion 的核心在于其置信度感知的姿态引导技术,确保视频帧的高质量和时间上的平滑过渡。 以前咱们也手搭过Animate-X让图…

云计算考核 - 分析电子银行需求采用微服务架构对系统进行设计

二、使用的技术以及分析 微服务(Microservices)是一种架构风格,一个大型复杂软件应用由一个或多个微服务组成。系统中的各个微服务可被独立部署,各个微服务之间是松耦合的。每个微服务仅关注于完成一件任务并很好地完成该任务。在…