博客

  • 旅游巨头的新战场:为什么携程把AI后端当成”核心能力”来招人?

    🚀 携程 2025 招聘解析

    旅游巨头的新战场:为什么携程把AI后端当成”核心能力”来招人?

    深度解析携程”资深AI后端开发工程师”岗位背后的技术趋势与行业变革

    携程于2025年在上海招聘”资深AI后端开发工程师”,岗位聚焦大模型(LLM)在线服务、推理加速与智能Agent基础设施建设,同时承担搜索/推荐系统的后端保障。岗位要求从 Java 后端到实时流处理、向量数据库与RAG/Agent框架都要兼顾,反映出在线旅游平台正在把AI能力内置到核心业务链条中以提升实时性和个性化体验。
    携程在招聘页面上列出的岗位并非常规的后端工程师工位,而是把“大模型部署、智能Agent与高并发搜索推荐”放在同一岗位。这一组合直接表明:携程要把 LLM 与 Agent 的能力嵌入到用户的检索、问答、预订流程中,从而实现更自然的对话式交互、更具上下文记忆的服务与更智能的个性化推荐。
    对于在线旅游(OTA)这类对实时性、并发容量、与强业务语义理解高度依赖的场景,LLM+RAG+Agent 架构能把静态搜索变成”会记忆、会检索、会组合工具”的智能服务链路。
    携程官方职位信息显示该岗位由旅游业务线直接招聘,时间标注为2025-08-28,暗示其短期内就要把这些能力纳入产品路线图。此外,行业内越来越多 OTA 和在线服务商在 2024–2025 年将 RAG 与 Agent 用于知识查询、行程生成和客服自动化,说明携程的动作并非孤立,而是行业趋势的一部分。RAG 能把最新产品目录、政策与用户历史作为”外部记忆”供 LLM 实时检索,显著提高答案的准确度与可追溯性(对旅行这种合规与时效要求高的领域尤为重要)。

    岗位职责逐条拆解

    招聘描述把几类任务混成一个整体——我把它拆得更技术化,方便候选人对照自身经验判断匹配度:
    • • LLM 在线部署与推理加速
      工程师要把大型语言模型从实验环境迁移到生产,并在保证 高并发、低延迟和稳定性 的前提下运行。这通常涉及使用专门的推理服务(例如 NVIDIA Triton、TorchServe、TensorFlow Serving)进行模型托管、批量/实时推理与硬件调度。生产化工程里还常见 GPU 动态调度、批次塑形(dynamic batching)、并发流量隔离与 SLO/监控链路设计。企业级实践证明,采用 Triton 等工业级推理服务能显著简化多框架模型统一部署与性能调优流程。

      NVIDIA Triton TorchServe TensorFlow Serving
    • • 智能Agent运行框架与协作协议
      岗位要求里提到的”Agent 的长短期记忆、知识库/RAG、多模型协作(MCP/A2A)”不是学术概念,而是工程化的模块:向量化知识库(向量数据库)、上文/历史记忆存取层、工具/函数调用接口(MCP 意味着 agent 调用外部工具的能力),以及新兴的 Agent-to-Agent 协议(A2A)以支持多 agent 之间的任务分工与协作。近一年多来,A2A 协议与 MCP 概念被几家大型厂商与社区项目采纳,旨在让不同 Agent 以标准化方式互通与协作,从而构建复杂任务的”协同流水线”。工程师需要把这些协议与内部服务(鉴权、流控、事件总线)对接。

      Vector Database MCP Protocol Agent-to-Agent
    • • 搜索与推荐后端整合
      在传统搜索/推荐后端基础上加入 LLM 组件,意味着需要做”在线特征工程 → embedding 生成 → 向量检索 → LLM 调用(RAG)→ 结果融合”的流水线整合工作。该岗位要保证在高 QPS 场景下 embedding 的实时写入/更新、向量检索的可扩展性、以及 LLM 调用的成本与延迟控制。向量数据库(如 Milvus、Pinecone、Weaviate 等)在此链路中成为常见技术选项。对延迟敏感的旅行场景还需要在推理与检索之间做更多缓存、分层检索与回退策略。

      Milvus Pinecone Weaviate
    • • 架构设计、协作与运维
      岗位仍强调 Java 为主的后端实现、数据库(MySQL/Oracle)与流处理(Flink、Kafka)实战经验,这反映了岗位既需要在上层 AI 服务工作,又要把输出无缝嵌入公司现有的实时数据与订单系统中。生产环境的 SRE/监控/容量规划经验同样被暗含为”必需项”:模型服务的可观测性、慢查询/超时回退与熔断等工程能力都将直接影响业务指标与用户体验。

      Java MySQL/Oracle Flink Kafka

    任职资格的”隐含门槛”与现实对应

    招聘条款列出的技术栈与经验看似罗列,但其中每项都有现实工程难点:
    从试验到生产:在开源/云端演示跑通模型,与在携程这种 C 端高并发环境下无缝落地,是完全不同的工程任务。企业级推理需要考虑并发隔离、成本控制(GPU 使用与冷启动)、以及多模型版本管理(A/B 测试、灰度)——只有在真实项目中做过这些事情的工程师,才能快速上手。
    Agent 与多模型协作(MCP/A2A):MCP 更关注单 agent 如何安全、可靠地调用工具与外部资源;A2A(Agent-to-Agent)则关注不同 agent 间如何用统一协议协作。两套机制可以互补,但在实战中需要工程师处理身份鉴权、任务生命周期管理与异步通信(SSE/webhook/消息队列)等工程细节。近期行业文档与开源标准正推动这类协议成熟化,但仍处于快速演进期,要求工程师具备较强的设计与抽象能力。
    向量数据库与 RAG 工程化选择:选择哪种向量 DB(Pinecone、Milvus、Qdrant、Weaviate 等)通常取决于团队对一致性、查询延迟、成本与自运维能力的偏好。对携程此类需要混合检索(文本 + metadata +实时票面信息)的场景,工程团队往往倾向于有成熟集群经验、支持大规模向量检索且能与线上流水线无缝对接的产品。

    为什么”延迟”在旅游行业尤其重要

    在在线旅行服务中,用户搜索—比较—下单的流程对响应时延极为敏感。大量研究与行业案例显示:页面或关键请求的延迟每增加一秒,转化率会明显下降(不同研究给出 1 秒→约 5–7% 转化下降的区间),对移动端用户影响更大。
    把 LLM 嵌入到关键路径,不可避免地增加了系统延迟与成本,因此工程师需要在模型大小、召回策略、缓存与分层检索之间做精细权衡,以保证业务指标不被牺牲。对携程这类以订单转化为核心的公司而言,SLO 与成本/效果分析是每日必做的工程题。

    对候选人的职业吸引点

    • • 技能覆盖面广且稀缺
      同时能做 LLM 推理工程、向量检索、实时流处理与高并发 Java 服务的工程师,在市场上属于”复合型稀缺人才”。
    • • 产品影响大
      在携程这类平台上,改进一次检索或推理路径,就有可能影响数百万用户的体验与公司营收,这种”工程—业务”闭环能快速提升工程师影响力与职业成长。
    • • 技术前沿落地机会
      能接触到 Triton、LangChain/LlamaIndex、向量 DB 与 A2A/MCP 等新兴生态,是把研究成果工程化的最佳场所之一(对想做技术管理或产品化的工程师特别有价值)。

    风险与挑战

    技术快速迭代、标准化未定:Agent 协议(A2A/MCP)与 RAG 最佳实践仍在演进中,工程决策存在被新标准或新开源库替代的风险。
    成本与可运维性压力:大模型在线推理的 GPU 成本、监控与故障恢复都是需要长期经营的投入。
    跨团队落地难度:把模型能力与产品、风控、结算等现有系统对接,往往需要耗费大量沟通与工程资源。

    结语:这是一份”技术含金量高、也要求抗压与工程化能力”的岗位

    携程的这次招聘既反映了 OTA 行业对 AI 能力的迫切需求,也暴露了把学术/实验室成果工程化到生产环境的真实复杂性。对有志在 AI 后端深耕的工程师,这是一个快速增长技能广度与影响力的机会;但上船前也要准备好面对性能、成本、协议变更与跨团队落地的长期工程挑战。
  • 基于领域知识增强的供应链垂直大模型训练与智能体构建-阿里星

    职位描述

    阿里国际供应链算法团队专门负责阿里巴巴海外零售供应链的建设和优化工作,业务覆盖全球,支持了千亿级别的零售行业、以及数以千万计的商品。 我们支撑了阿里国际商业零售供应链行业的智能决策体系,我们的核心职责是保障供应链效率、降低供应链成本,同时提升零售行业的经营决策效率,提升广大消费者的购物和服务体验。我们的工作涉及到国际商业数字零售供应链的方方面面,充满了趣味和挑战。 在这里,你将和我们一起,采用大数据技术、人工智能算法、仿真技术等持续解决商业活动中的现实问题,不断创造价值,重塑整个海外零售商业体系,为社会带来更加美好的生活!在这里,您将与优秀的团队、先进的供应链算法技术和激动人心的供应链优化机会紧密合作,共同解决商业活动中的供应链问题,不断创造价值。让我们携手共创海外商业数字供应链的未来!

    我们的具体研究内容如下:

    1. 基于领域知识增强的供应链垂直大模型设计与自适应训练:融合供应链规则库与动态知识图谱,设计可解释性强的轻量化Transformer架构,通过自监督预训练与在线微调结合,提升模型对跨国政策变化的快速响应能力。

    2. 面向供应链复杂决策的分层强化学习与元控制算法:构建多层强化学习体系,结合元控制技术,解决多时间尺度下的库存优化与合单优化问题,提升模型在高不确定性环境中的鲁棒性。

    3. 基于语义感知的动态工具路由与少样本泛化调用机制:开发语义感知的动态工具选择算法,结合Prompt Tuning与Few-shot Learning技术,实现大模型对数百个异构API的即插即用适配与跨任务泛化。

    4. 基于因果推理的国际供应链预测与反事实干预建模:融合因果图与神经网络,构建供应链中断事件的风险传播模型,通过反事实分析生成弹性应对策略。

    5. 大模型驱动的实时多模态供应链状态感知与动态定价:设计多模态输入编码器,结合强化学习实现实时动态定价策略,提升模型对非结构化数据的敏感度与决策效率。

    职位要求

    1. 机器学习、深度学习、强化学习、运筹学、自然语言处理、图像识别或应用数学等相关专业的硕士或博士生。

    2. 熟悉Java,C++,Perl,Python等一种以上编程语言。

    3. 具备业务抽象和建模能力,能够将复杂的业务场景分解、抽象成标准化的业务模型,并进行面向业务问题的算法建模。

    4. 对数据分析和算法设计有比较强烈的兴趣,具有统计学、运筹学、机器学习、深度学习、强化学习相关知识优先考虑。

    5. 持续关注学术前沿,自我驱动强,快速学习能力强,主动追踪人工智能方向前沿算法和技术。

    6. 积极、乐观、皮实、自省、善待他人、勇于面对挑战。

    工作地点

    杭州

  • 世界,您好!

    欢迎使用 WordPress。这是您的第一篇文章。编辑或删除它,然后开始写作吧!