Agent自动化与代码智能

核心问题:

  • 现在很多团队做AI系统有个大毛病:只顾追求“高大上”的新技术(尤其是AI Agent),不管实际业务需不需要。 结果系统搞得又贵、又复杂、还容易出错
  • 大家被“Agent”这个概念搞晕了:到底啥时候用简单的大模型(LLM)?啥时候需要RAG?啥场景才真需要Agent?

用简历筛选举例:

你要用AI来自动筛选求职简历。根据任务难度和自动化程度,有四个递进的解决方案级别

  1. 基础版:纯大模型(LLM)

    • 能力: 就像个记忆力超强的“知识库”,能理解文字、做简单判断。
    • 简历筛选怎么用: 你给它职位要求和一份简历,它告诉你“通过”或“不通过”。但它只能基于自己学过的知识判断,不知道你们公司内部的具体要求。
    • 适用场景: 规则特别简单明确的任务(比如只看有没有大学文凭),或者不需要公司内部数据的场景。
    • 特点: 最简单、最便宜、最快,但能力有限。
  2. 升级版:带检索的RAG

    • 能力: 给基础版大模型配了个“外挂大脑”(数据库)。大模型需要做决定时,先去查相关资料(比如公司内部文档、招聘政策、历史简历),然后结合这些查到的信息再判断。
    • 简历筛选怎么用: 不仅能看简历本身,还能去查“我们公司这个职位通常招什么背景的人?”“招聘手册上有没有特殊规定?”,然后给出更符合公司实际的判断。
    • 适用场景: 需要结合最新或公司内部信息的任务(比如理解公司特有的技能要求)。
    • 特点: 比纯LLM更智能、更“懂行”,成本适中,是解决信息时效性和个性化需求的好办法。
  3. 自动化版:工具调用/AI工作流

    • 能力: 大模型不仅能判断,还能像程序员一样,按照设定好的流程,自动调用其他工具/软件干活(比如查数据库、发邮件、定日程)。
    • 简历筛选怎么用: 系统自动从招聘网站拉下新简历 -> 调用大模型(可能结合RAG)判断 -> 根据判断结果,自动调用邮件系统发“拒信”或者“面试邀请”,甚至能自动把面试时间写入日历。
    • 适用场景: 流程固定、步骤明确的端到端任务。你想好每一步该干啥,让AI按部就班执行。
    • 特点: 实现了自动化,节省人力,需要预先设计好流程(工作流)。
  4. 智能版:AI Agent(智能体)

    • 能力: 这是最高级别。Agent能自己“动脑筋”做计划、做决定。它会把一个大任务拆分成小步骤,自己决定什么时候、用什么工具、按什么顺序去完成。它还能根据执行结果灵活调整计划(比如面试时间冲突了,它会主动联系候选人改时间)。
    • 简历筛选怎么用: Agent不仅能筛选简历发通知,还能主动跟候选人沟通协调面试时间、处理时间变更、安排面试官、甚至跟进面试结果。整个过程不需要人一步步指挥,它能自主决策(在设定范围内)。
    • 适用场景: 复杂、多变、需要动态决策的任务。需要AI具备一定的“自主性”去协调处理。
    • 特点: 最灵活、最“智能”,但也最复杂、最贵、最难做稳定可靠(因为决策有不确定性)。

划重点:

  1. 别迷信Agent! 不是所有AI系统都需要Agent。越简单、越可靠、越便宜的系统往往是更好的选择。
  2. 按需选择:
    • 简单分类?用纯LLM或加点提示词工程就够了。
    • 需要查内部资料?RAG是利器。
    • 流程固定想自动化?工具调用/AI工作流很合适。
    • 任务超级复杂多变,需要AI自主协调?这时候才考虑Agent。
  3. 可靠性和成本是关键: Agent听起来很酷,但如果一个简单工作流就能搞定问题,强行上Agent只会增加成本、复杂度和出错风险(大模型有时会“胡说八道”)。功能多不如系统稳。
  4. 从简单开始: 做AI项目最好从最简单的方案试起(比如纯LLM或RAG),能解决问题就不要搞复杂。确实需要更多功能(自动化、自主性)时,再逐步升级架构。先做实验验证想法(Proof of Concept),再考虑投入生产环境。
  5. 简历筛选案例的启示: 筛选简历本身,规则明确就用纯LLM或RAG;想自动化通知,就用AI工作流;只有当你希望AI能全权负责整个招聘流程(包括沟通协调),才需要Agent。

选AI技术就像选工具,钉钉子用小锤子就行,不需要开挖掘机!这篇文章教你根据“钉子”(你的业务需求)的大小和硬度,选择合适的“锤子”(LLM/RAG/工作流/Agent),别为了酷炫而过度设计。简单、可靠、低成本才是王道。

核心观点:

经验丰富的开发者对AI编程效率提升持保守态度是有道理的。AI在某些特定任务上能“起飞”,但在复杂项目中效率提升有限。这不是抗拒技术,而是对软件开发本质和AI当前局限性的清醒认识。

具体解析:

  1. 效率“起飞”的场景(AI 的闪光点):

    • 文章明确指出,在需求明确、范围小、结果可快速验证的任务上,AI 效率提升非常显著:
      • 快速写脚本/原型: 比如写个爬虫抓数据,做个简单功能原型。
      • UI 生成: 根据设计截图生成界面代码。
      • 代码翻译: 把代码从一种语言(如 Python)翻译成另一种(如 Java)。
      • 小工具/简单功能: 需要少量代码就能解决的问题。
    • 特点: 这些任务相对独立,上下文依赖少,AI 能快速理解并产出结果。`` (这张图形象展示了AI在特定场景如爬虫、UI生成、代码翻译上的高效表现)
  2. 效率“下降”的原因(现实的挑战):
    当项目变得复杂,超越简单的脚本或原型阶段时,AI 的效率光环就会褪色:

    • “屎山代码”的魔咒: 几乎所有真实项目最终都会积累混乱、难以维护的代码(屎山)。AI 非常不擅长在这种复杂、混乱的上下文中准确理解意图和保证不引入错误或破坏原有功能。
    • 需求的模糊性: AI 无法直接处理模糊的人类需求(比如“做个用户友好的登录功能”)。开发者必须先理解业务梳理现有架构将需求转化为精确的技术语言,才能有效地指导 AI。AI 目前无法替代这部分核心的认知和抽象工作。
    • 复杂实现的沟通成本: 描述一个复杂的技术实现本身就很难。AI 给出的方案可能不是开发者真正想要的,或者需要反复调试、修改、甚至完全重试。这种反复生成、验证、修改的过程本身消耗了大量时间和精力,抵消了初始生成的“快感”。
  3. 关于“屎山代码”和架构的深入讨论:

    • 新项目也难逃“屎山”? 文章指出,即使从一个全新的、架构设计良好的项目开始,随着需求不断变化(旧架构是为旧需求设计的)和实施过程中对架构理解的偏差(人或AI都可能理解不到位),代码质量依然会下滑,最终形成新的“屎山”。AI 开发速度快,可能只是更快地制造出新的“屎山”
    • 微服务架构的“复兴”可能? 文章提到一个有趣观点:在AI编程时代,微服务架构可能重新获得青睐。原因是:
      • 微服务强调低耦合,服务间通过明确接口通信,内部实现相对自由。
      • 只要接口稳定,单个服务内部的代码质量要求可以相对降低(即使内部代码有点“乱”),这对能快速生成代码但难以保证全局最优的AI来说更友好。
    • 微服务也不是万能药:
      • 非常考验架构师的能力(服务拆分不合理会更糟)。
      • 跨多个服务的更新对AI来说难度更大。
      • 只适合中大型项目后端,小项目用就是自找麻烦(过度设计)。

总结:

  • AI编程是强大的工具,但非万能神器。 它在特定、明确的任务上能显著提升效率。
  • 软件开发的核心挑战(如理解模糊需求、管理复杂系统、维护代码质量)并未因AI而消失。 经验丰富的开发者知道这些挑战是根本性的,AI 目前主要作用于外围辅助。
  • 对效率提升需有合理预期。 指望AI彻底改变开发流程或解决所有代码质量问题是不现实的。它更擅长做“加法”(快速生成特定代码块),而不是解决“减法”(理解和梳理复杂混乱的上下文)和“乘法”(设计优秀架构并长期维护)的问题。
  • 关键在于明智地使用。 开发者需要判断何时使用 AI(利用其优势处理明确小任务或快速原型)以及何时依赖传统方法和自身经验(处理复杂逻辑、核心架构、模糊需求和维护大型系统)。

AI编程像一把锋利的瑞士军刀,擅长完成特定的小任务(如开瓶、剪线),但用它来建造和维护一座摩天大楼(复杂软件项目)就显得力不从心了。经验丰富的开发者知道该在什么时候、什么地方用这把刀最有效。

1. 当前量产主流:BEV感知已成熟,但遭遇瓶颈

  • 现状: 基于BEV(鸟瞰图)的感知方案(动态/静态目标检测、占据栅格OCC)已成为量产标配,替代了早期的单目/双目检测分割方案。它在高速NOA等结构化道路场景表现出色。
  • 难点/瓶颈:
    • 长尾场景(Corner Case): 如非结构化道路(乡村路)、超复杂路口、奇葩车道(最左道右转)、极端拥堵等场景,各家方案都难以100%可靠处理。99%的场景能做好,但剩下1%的长尾问题消耗了80%的精力。
    • 数据依赖与迭代方式: 传统方法是不断收集特定问题(Issue Case)数据打补丁,陷入“发现问题-加数据/规则-又发现新问题”的循环,被认为效率低下且难以达到理想L4水平。``
    • 感知研究价值争议: 有观点认为感知基础研究空间被挤压,甚至出现“感知不值得研究,要转向World Model/E2E”的极端看法(虽不全面但反映趋势)。

2. 新兴技术热点:VLA/VLM 成为新宠,但仍存挑战

  • 什么是VLA/VLM? 视觉语言助手 (VLA) / 视觉语言模型 (VLM)。利用大模型强大的理解和推理能力,让车辆像人一样“理解”场景并决策,旨在解决长尾问题和摆脱打补丁循环
  • 为什么火? 提供了解决自动驾驶根本性挑战(理解、推理、泛化)的新可能。``
  • 主要挑战与质疑:
    • 落地真实性存疑: 很多宣传“上车”的VLA方案是否真正有效解决核心驾驶问题(而非仅用于人机对话)?缺乏公开证据。``
    • 数据壁垒: 工业界真实有效的长尾数据不愿/难以共享,学术界数据(开源数据集或仿真数据)往往与工业需求脱节,不足以支撑VLA迭代。``
    • 算力与效率: 大模型延迟高,难以满足车规级实时性要求。小模型能力又不足。分层VLA、蒸馏、输出形式优化(如结构化输出替代自然语言)是当前研究方向。``
    • 专用性不足: 缺乏为自动驾驶量身定制的VLM基座模型(特别是空间理解、驾驶常识、拓扑关系推理能力)。现有模型多是通用模型魔改。
    • 安全兜底: 纯数据驱动的VLA在简单/安全关键场景可能出现“过度自信”或“常识错误”,如何与现有成熟方案结合(如DiffVLA提出的两阶段+规则兜底)是现实考量。``

3. 其他技术方向点评

  • 端到端 (E2E):
    • 现状: 理念吸引人(输入图像/传感器数据,直接输出控制信号),但量产落地优势尚不明显。相比成熟的两阶段方案(感知模块+规划控制模块),在数据收集、训练成本、可操作性上可能不占优。
    • 未来: 与强化学习、闭环仿真结合可能是突破口。
  • 扩散模型:
    • 潜力: 用于生成多模态轨迹,能更好地表达驾驶环境的不确定性(未来有多种可能路径)。
    • 疑问: 在真实复杂场景和困难场景中的实际效果有待验证。实时性提升是关键(如DiffusionDrive)。
  • 世界模型 (World Model):
    • 作用: 主要用于预训练、仿真/数据生成、端侧推理。在仿真和数据生成方面价值显著(弥补真实数据不足,降低成本)。
    • 疑问: 具体“世界”了什么?对端到端驾驶有多大直接帮助?尚在探索。``
  • 强化学习 (RL):
    • 潜力: 在隔壁具身智能和大模型领域大放异彩,理论上能突破模仿学习上限。
    • 挑战: 在自动驾驶领域应用不温不火。难点在于高保真仿真环境构建(需精确建模其他交通参与者行为,难度不亚于自驾本身)和极高的安全性要求(不能靠假设他人让行)。``
  • 闭环仿真:
    • 重要性大增: 被认为是VLA/RL训练和量产方案验证的必经之路,尤其对于追求安全和解决长尾问题。基于3D高斯(3DGS)等技术重建场景是热点。
    • 难点: 位姿不准影响重建质量,新视角生成效果,Sim2Real(仿真到真实)的差距问题。
  • 3D高斯 (3D Gaussian Splatting - 3DGS):
    • 潜力: 作为一种新颖的3D场景表征和重建方式,可能成为世界模型的基础或用于闭环仿真,仍有优化空间(高斯核形状、函数等)。

4. 未来方向共识

  • 数据驱动与闭环为王: 未来竞争核心是高效的数据闭环运营能力(快速收集、清洗、标注、训练、验证)。谁能建立强大的AI驱动数据流水线和工具链,谁将领先。``
  • VLA/VLM是重要方向但需持续投入: 是解决理解、推理、泛化的希望所在,但需克服专用基座模型、算力、数据、安全验证等挑战。
  • 系统整合: 将VLA/VLM、世界模型(仿真)、强化学习、智能体模拟(Agent Simulator)等整合成高效闭环系统是关键趋势。
  • 舱驾一体与体验提升: 结合语音、OS,提升整体用户体验。
  • 中心化与群体智能探索: 未来可能探索车端(边缘)与云端(中心)协同,甚至V2X车路协同的群体智能方案。

5. 深耕智驾 vs 投身具身智能?

  • 现状: 自动驾驶进入攻坚期(0.99->1),解决长尾问题难;具身智能(机器人)处于更早期(0->1),机会多但不确定性也大。
  • 专家建议:
    • 看兴趣与平台: 选择自己热爱且能发挥所长的领域。
    • 看技术通用性: 自动驾驶中对感知、规划、控制、大模型应用的经验,部分可迁移到具身智能。选择知识迁移性强的方向更稳妥。
    • 理性评估: 考虑自身能力、资源、风险承受能力。具身作为新领域,技术路线和市场需求尚在形成中。

自动驾驶目前处于“BEV打基础已成熟,VLA攻长尾是热点,数据闭环定胜负”的阶段。技术发展迅猛(BEV到VLA仅两三年),但量产落地仍需脚踏实地,解决真实场景难题(尤其是那1%的长尾)和构建高效数据闭环体系是核心挑战。专家们对VLA寄予厚望但也保持审慎乐观,认为它代表未来方向但落地之路尚需克服诸多障碍。

核心发现(最反常识的点):

  • AI工具反而拖慢了资深开发者! 研究发现,有经验的开发者在使用当时(2025年初)的AI编程工具(如 Cursor Pro + Claude 3.5/3.7)处理自己熟悉的、大型的、复杂的开源项目时,完成任务所需的时间平均增加了19%。这和他们自己预期的效率提升24% 完全相反。
  • 认知偏差存在: 即使亲身经历了效率下降,开发者们事后仍然认为AI帮他们提高了20%的效率。这表明开发者对AI工具的能力存在明显的乐观偏差。

研究怎么做的?

  1. 研究对象: 邀请了16位经验丰富的开源开发者,他们都长期贡献于知名的大型开源项目(项目平均有10年历史,代码量超110万行,他们平均有5年经验,提交过1500次代码)。
  2. 研究任务: 开发者们提供了246个真实任务(如修复bug、开发新功能),这些都是他们日常工作的一部分。
  3. 实验分组: 这些任务被随机分配到两个组:
    • AI组: 允许开发者使用AI工具(主要是Cursor Pro)。
    • 对照组: 禁止使用任何AI工具。
  4. 记录与报酬: 开发者完成任务时会录屏,并报告实际耗时。他们按小时获得报酬(每小时150美元)。
  5. 核心对比: 比较同一批开发者在处理相似难度任务时,使用AI vs 不使用AI 的实际完成时间差异。

为什么AI会拖后腿?(关键减速因素分析)
研究分析了20个可能因素,找出了5个主要原因(前3个最重要):

  1. 开发者过于乐观 (C.1.1):
    • 实验前,开发者普遍认为AI能帮他们省时24%
    • 这种乐观可能导致他们在使用AI时投入了过多精力去尝试让它工作,或者高估了AI产出的质量。
  2. 开发者对代码库太熟悉 (C.1.2):
    • 资深开发者对自己项目的代码、架构、历史决策了如指掌。
    • AI很难提供超越他们自身知识水平的有效帮助,反而可能给出不合适的建议,需要开发者花时间去甄别、修正甚至放弃。
    • 在自己更熟悉的任务上,AI拖慢效果更明显!
  3. 代码库太大太复杂 (C.1.3):
    • 研究的项目都是历史悠久、规模庞大的开源项目。
    • AI工具在处理这种级别的复杂性(尤其是隐含的上下文、非标准的实现)时表现较差,给出的建议常常不适用或需要大量修改。
  4. AI生成的代码不可靠 (C.1.4):
    • 开发者最终只接受了不到44%的AI生成代码
    • 大部分接受的代码都需要显著修改(平均花费了开发者9%的时间来审查和修改AI的产出)。
    • AI可能会产生错误、不符合项目规范、或者忽略边缘情况的代码。
  5. AI不理解隐含上下文 (C.1.5):
    • 大型项目有很多“只可意会不可言传”的知识和背景(为什么代码这么写,历史原因等)。
    • AI工具难以捕捉和利用这些隐含信息,导致建议脱离实际项目需求。

这个结论和大众印象矛盾吗?怎么解释?
是的,这个结论似乎与“AI极大提升效率”的普遍宣传和许多个人体感不符。研究提出了三种可能的解释:

  1. 研究低估了AI (假设1): 也许是实验设计或情境本身存在问题,没能捕捉到AI的真实价值。
  2. 标准评测和大众反馈高估了AI (假设2):
    • 标准评测 (如SWE-Bench): 评测任务通常是独立、明确、容易自动打分的,不能反映在庞大复杂真实项目中工作的挑战。
    • 大众积极反馈: 可能更多来自处理相对简单、独立的任务,或者使用者经验较浅(新手可能受益更大)。
  3. 衡量的是不同情境 (假设3):
    • 本研究的RCT: 衡量的是资深开发者熟悉的超大型复杂项目中完成真实任务的效率。
    • 标准评测: 衡量AI在特定、有限制的评测任务上的表现。
    • 大众反馈: 衡量AI在更广泛、多样化但可能更简单或更独立任务中的感知有用性。
    • 结论:资深开发者 + 超大型复杂项目这个特定场景下,2025年初的AI工具确实导致了效率下降。

研究的意义和局限:

  • 意义:
    • 提供了在特定但重要场景下,对AI工具实际效果的严谨评估
    • 揭示了AI工具当前能力的局限性(尤其在复杂性和深度集成方面)。
    • 强调了在评估AI影响时需要考虑具体场景(谁用?做什么?在哪做?)
  • 局限(研究明确说明):
    • 不代表大多数开发者: 研究聚焦于资深开发者在大型开源项目上的工作,不适用于所有程序员或所有工作场景(如小型项目、新手、非代码任务)。
    • 不否定AI在其他领域的潜力: 仅针对该研究情境。
    • 不预示未来: AI技术发展快,未来可能有改进。
    • 可能不是最优AI使用法: 研究中开发者自由使用AI,但可能存在更高效的用法未被发掘。

2025年初,对于经验丰富、长期维护大型复杂开源项目的开发者来说,使用当时先进的AI编程工具(如Cursor + Claude)不仅没有像预期那样提升效率,反而平均增加了19%的任务完成时间。主要原因包括开发者过度乐观、自身对代码库过于熟悉导致AI难有用武之地、大型项目的复杂性超出AI处理能力、AI生成的代码不可靠需大量修改、以及AI无法理解项目隐含的上下文知识。这提醒我们,AI工具的实际价值高度依赖于使用场景和使用者经验。

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。
如若转载,请注明出处:http://www.pswp.cn/pingmian/88758.shtml
繁体地址,请注明出处:http://hk.pswp.cn/pingmian/88758.shtml

如若内容造成侵权/违法违规/事实不符,请联系多彩编程网进行投诉反馈email:809451989@qq.com,一经查实,立即删除!

相关文章

SQL141 试卷完成数同比2020年的增长率及排名变化

SQL141 试卷完成数同比2020年的增长率及排名变化 withtemp as (selectexam_id,tag,date(submit_time) as submit_timefromexamination_infoleft join exam_record using (exam_id)wheresubmit_time is not null),2021_temp as (selecttag,count(*) as exam_cnt_21,rank() over…

C语言<数据结构-单链表>

链表是一种常见且重要的数据结构,在 C 语言中,它通过指针将一系列的节点连接起来,每个节点可以存储不同类型的数据。相比数组,链表在插入和删除元素时不需要移动大量数据,具有更好的灵活性,尤其适合处理动态…

archive/tar: unknown file mode ?rwxr-xr-x

这个是我在docker build报错的,这是一个node.js项目。我猜你也是一个node.js下的项目,或者前端项目。 解决方法: .dockerignore里面写一下node_modules就行了。 未能解决:archive/tar:未知文件模式?rwxr-…

【前端】ikun-markdown: 纯js实现markdown到富文本html的转换库

文章目录背景界面当前支持的 Markdown 语法不支持的Markdown 语法代码节选背景 出于兴趣,我使用js实现了一个 markdown语法 -> ast语法树 -> html富文本的库, 其速度应当慢于正则实现的同类js库, 但是语法扩展性更好, 嵌套列表处理起来更方便. 界面 基于此js实现vue组…

【echarts踩坑记录】为什么第二个Y轴最大值不整洁

目录问题复现示意图:解决方法有以下几种:1. 在y轴配置中手动设置max属性:2. 使用ECharts提供的坐标轴标签格式化功能:🚀写在最后问题复现示意图: 今天在用echarts图表的时候,出现了一个小问题。…

Duplicate cleaner pro 的使用技巧

Duplicate cleaner pro 的使用技巧前言文件去重基本介绍经验之谈目录结构修改盘符起因方法手动分配方法‌数据修改方法安装sqlite-web修改数据库GPU加速安装驱动获取驱动和硬件信息安装CUDA配置环境变量&#xff08;如果是自定义安装&#xff09;创建程序<1>获取参数和命…

数字孪生技术引领UI前端设计新趋势:增强现实与虚拟现实的融合应用

hello宝子们...我们是艾斯视觉擅长ui设计和前端数字孪生、大数据、三维建模、三维动画10年经验!希望我的分享能帮助到您!如需帮助可以评论关注私信我们一起探讨!致敬感谢感恩!一、引言&#xff1a;AR 与 VR 的 “割裂” 与数字孪生的 “融合” 契机增强现实&#xff08;AR&…

Qt使用dump文件记录并查找软件奔溃信息详细教程

Qt使用dump文件记录并查找软件奔溃信息一、dump文件概述1、dump文件的基本概念2、dump文件的常见类型3、dump文件的分析工具4、dump文件的应用场景二、具体实现步骤1、下载dbghelp库2、将库添加到自己的工程中3、main.cpp添加代码记录奔溃日志4、编写测试代码5、测试6、结果查看…

UI前端与数字孪生结合案例分享:智慧城市的智慧能源管理系统

hello宝子们...我们是艾斯视觉擅长ui设计、前端开发、数字孪生、大数据、三维建模、三维动画10年经验!希望我的分享能帮助到您!如需帮助可以评论关注私信我们一起探讨!致敬感谢感恩!一、引言&#xff1a;能源管理的 “数字孪生革命”智慧城市的能源系统正面临 “供需失衡、损耗…

Android 16系统源码_SplashScreen窗口的创建流程(一)

一 点击桌面图标触发SplashScreen 1.1 点击桌面图标打开应用 点击桌面的短信图标&#xff0c;然后打开短信页面&#xff0c;使用winscope获取数据。从点击短信图标到应用内容完全展开&#xff0c;中间有出现一个标题带有“Splash Screen”字符串的窗口。 二 Splash Screen窗口创…

线性代数学习笔记

矩阵 矩阵是一种非常重要的数学对象,它通常由一个由数字排成的矩形阵列来定义。一个矩阵由若干行和若干列组成,被称为矩阵的行数和列数。一般情况下,矩阵的行数和列数分别用 n n n 和 m m m 表示。<

2025.7.13总结

每次写日记&#xff0c;总觉得自我感受不是很好&#xff0c;脑子总会有许多消极思想。在网上&#xff0c;我曾看到一个关于“人生是一场巨大的事与愿违”&#xff0c;可能&#xff0c;真的是这个样子吧。以前的我&#xff0c;有上进心&#xff0c;有目标感&#xff0c;脚踏实地…

linux-网络-网络管理发展历程

Linux 的网络管理机制经历了多个阶段的发展&#xff0c;从早期的静态配置到现代动态管理工具的出现&#xff0c;反映了 Linux 系统在网络连接、自动化和用户体验方面的不断演进。以下是 Linux 网络管理发展的主要阶段&#xff1a;1. 早期的静态网络配置&#xff08;传统方式&am…

华为 GaussDB :技术特性、应用局限与市场争议

3-5月间&#xff0c;老夫在某学校带了这门课&#xff0c;简单总结一下课程外的看法&#xff1a;华为 GaussDB 作为华为云生态中的核心数据库产品&#xff0c;自推出以来便承载着华为在数据基础设施领域的战略野心。其技术路线既延续了开源数据库的兼容性优势&#xff0c;又深度…

从零开始学习深度学习—水果分类之PyQt5App

一、项目背景⭐&#xff1a;本项目是“从零开始学习深度学习”系列中的第二个实战项目&#xff0c;旨在实现第一个简易App(图像分类任务——水果分类)&#xff0c;进一步地落地AI模型应用&#xff0c;帮助初学者初步了解模型落地。基于PyQt5图形界面的水果图像分类系统&#xf…

小架构step系列13:测试用例的加载

1 概述测试用例的编写要有一些基础的规范&#xff0c;在本文先定义文件名称和测试用例方法名的规范。2 文件加载原理先从源码来看一下测试用例的文件加载原理。2.1 文件的匹配主要是通过注解来扫描测试用例。// 在IDEA测试用例启动时&#xff0c;调用junit-platform-launcher-x…

K8S的CNI之calico插件升级至3.30.2

前言宿主机ping不通K8S的pod&#xff0c;一直存在丢包的现象&#xff0c;排查了防火墙、日志、详细信息等没发现什么问题&#xff0c;最后搜索发现&#xff0c;是因为把K8S的版本升级之后&#xff0c;旧版本的CNI插件不适配原因导致的&#xff0c;于是就把calico也一并升级并且…

Spring Boot RESTful API 设计指南:查询接口规范与最佳实践

Spring Boot RESTful API 设计指南&#xff1a;查询接口规范与最佳实践 引言 在 Spring Boot 开发中&#xff0c;查询接口的设计直接影响着系统的可用性、可维护性和性能。本文将深入探讨如何规范设计查询接口&#xff0c;包括 GET/POST 的选择、参数定义、校验规则等&#xff…

ctfshow萌新题集

记录一下前半部分是能自己写出来的&#xff0c;后半部分是需要提示的&#xff0c;感觉自己归来两年仍是萌新 misc部分 知识点 base家族密文特征 Base16 (Hex) 字符集&#xff1a;0-9, A-F&#xff08;不区分大小写&#xff09;。特征&#xff1a; 长度是 2 的倍数&#xff…

2025年语言处理、大数据与人机交互国际会议(DHCI 2025)

&#x1f310;&#x1f916;&#x1f9e0; 语言处理、大数据与人机交互&#xff1a;探索智能未来 —— DHCI 2025国际会议2025年语言处理、大数据与人机交互国际会议&#xff08;DHCI 2025&#xff09; 将于2025年在中国重庆市召开。这次盛会将汇聚全球顶尖专家、学者及行业领袖…