九天菜菜-大模型与Agent开发实战 - 猎人搜索 轻松搜寻全网资源
- file:【GPT4o】03_多轮对话历史及面向对象多轮对话机器人实战.ts
- file:【Claude】08_tool_choice与定制Json输出及tool_use大实战.ts
- file:【GPT】02_OPEN AI官网及开发者平台使用指南.ts
- file:【GPT4o】13_函数调用中的Streaming流式响应.ts
- file:【GPTo1】02_o1模型的API调用详解与总结.ts
- file:【GLM】12_GLM的AllTool模型API调用.mp4
- file:【GLMAssistantAPI】03_将智能体集成Agent类使用.ts
- file:【Claude】10_stream函数及生成器本质讲解.ts
- file:【GLM】10_GLM4V图像多模态模型.mp4
- file:【Gemini】03_解锁 Gemini API-开启文本生成之旅.ts
- file:【GPT4o】09_并行的函数调用与实时股票价格、历史走势绘图与分析【实战】.ts
- file:DSPy优化器优化LLM程序.ts
- file:GLM 4 工具调用从入门到精通与CogVideoX 文本生成视频 API 全流程.ts
- file:【GPT4o】07_5步的 tool use完整的调用流程与汇总.ts
- file:【Gemini】06_API精细化控制生成之System Instruction.ts
- file:【Gemini】01_Gemini注册指南-最新模型免费API调用.ts
- file:【Claude】01_了解Claude的所有特质.MP4
- file:【GPT4o】08_tool use 维基百科实时写作助手【实战】.ts
- file:【GPTo1】01_o1大模型原理介绍 从4o到o1实际上发生了什么.ts
- file:【GLM】09_CogVideoX视频生成大模型.ts
- file:提示工程全解指南.ts
- file:【Gemini】10_API精细化控制生成结构化与Json参数.ts
- file:【Gemini】09_提示工程之长文档实战.ts
- file:【GLM】06_tooluse上-一次api调用的tooluse.ts
- file:GLM模型:流式处理的工具调用、多模态应用及模型微调实战指南.ts
- file:【GLM】05_GLM的stream流式响应讲解.ts
- file:Ch 6.4 奖励模型训练流程.ts
- file:Ch 3.1 如何获取数据源及使用解析.ts
- file:Ch 2.5 配置TensorBoard.ts
- file:Ch 4.3如何在windows配置环境.ts
- file:Ch 1.3 微调步骤及技术栈.ts
- file:Ch 6.2 RLHF流程拆解与核心.ts
- file:Ch 3.4 数据验证&deepspeed微调.ts
- file:Ch 3.2 llamafactory中如何使用和注册数据集.ts
- file:Ch 2.3 LLama_factory 安装部署及验证.ts
- file:Ch 5.1PPO&llama3.2_什么是PPO算法.ts
- file:Ch 5.3 各个模型PPO算法的协作关系.ts
- file:Ch 4.1 win&Qlora&qwen2.5_Qlora能节约多少内存.ts
- file:Ch 5.6 PPO源码解读.ts
- file:window系统微调QLORA.ts
- file:LLama_Factory+LORA大模型微调.ts
- file:DPO微调Qwen2.5.ts
- file:Ch 6.1 RLHF&Qwen2.5,RLHF背景与意义.ts
- file:PPO微调Llama-3.2.ts
- file:Ch 4.4 Qlor微调实战与验证.ts
- file:【Qwen2.5】03_ModelScope线上部署办法.ts
- file:【GLM4-9B】01_模型基本介绍.ts
- file:在Windows环境下使用Ollama启动多模态模型llama3.2Vision全流程.ts
- file:【Llama3.1】07_LlamaFactory中文能力微调实例.ts
- file:【Qwen2.5Coder&Math】07_vLLM推理Coder流程.ts
- file:【GLM4-Voice】03_本地化部署流程.ts
- file:Ollama最新版本启动多模态模型Llama3.2Vision全流程[Linux环境].ts
- file:【Qwen2.5】05_在Windows系统中使用Ollama框架部署流程.ts
- file:【Llama3.1】02_线上体验办法.ts
- file:【Cursor】调用QWQ实现辅助编程--调用本地模型全流程.ts
- file:【Qwen2.5】06_vLLM部署与调用流程.ts
- file:【ChatGLM3-6B】10_LoRA微调实战训练.ts
- file:【ChatGLM3-6B】06_Git方法简洁下载ChatGLM3-6b.ts
- file:【Llama.cpp】以Qwen2VL为例实现GGUF模型量化与调用办法.ts
- file:Qwen2--5Coder:32B基本介绍和测试.ts
- file:【ChatGLM3-6B】07_以ChatGLM3-6b为例的大模型更新办法.ts
- file:【DeepSeekv3】3 MLA潜在注意力 (1) 从自回归掩码看KV缓存机制.mp4
- file:【DeepSeekv3】1 整体架构与分布式基础概念.mp4
- file:【DeepSeekv3】5 DeepSeekMOE的MOE架构与创新.mp4
- file:Ch 11.3 检查点的特定实现类型-MemorySaver.ts
- file:Ch 9.2 LangGraph中可应用的三种结构化输出方法.ts
- file:【MateGenPro】Ch 2. 本地运行MateGen Pro项目流程.ts
- file:Ch 12.5 案例:具备人机交互的完整Agent信息管理系统.ts
- file:【MateGenPro】Ch 6 API_Key接口初始化与校验.ts
- file:Ch 8.2 使用字典类型定义状态的方法与优劣势.ts
- file:Ch 13.3 父、子图状态中无共同键的通信方式.ts
- file:Ch 1.2 大模型应用的本地知识库问答核心技术-RAG.ts
- file:Ch 1.4 AI Agent 经典核心架构与 AgentExcuter.ts
- file:Ch 5.1 Assistant API 进阶应用方法介绍.ts
- file:Ch 3.1 Funcation Calling 与 AI Agent的本质区别.ts
- file:Ch 8.3 LangGraph状态管理中Reducer函数的使用.ts
- file:Ch 4.4 Run运行时的状态转移机制.ts
- file:Ch 6.6 应用案例(2):集成外部函数方法及项目完整功能介绍.ts
- file:Ch 6.1 为什么企业级应用必须接入流式输出.ts
- file:Ch 12.3 标准图结构中如何添加断点.ts
- file:Ch 2.2 AI Agent三种应用类型及Python实现可交互的聊天机器人.ts
- file:Ch 5.2 File Search内置工具说明及文件管理.ts
- file:Ch 9.1 LangGraph代理架构及Router Agent介绍.ts
- file:Ch 5.7 基于Funcation Calling实现本地代码解释器.ts
- file:Ch 9.5 Tool Calling Agent的完整实现案例:实时搜索与数据库集成.ts
- file:Ch 2.1 AI Agent与LLMs + RAG的本质区别.ts
- file:Ch 10.2 案例实操:构建复杂工具应用的ReAct自治代理.ts
- file:Ch 14.2 案例:基于 Supervisor 架构实现多代理系统.ts
- folder:九天菜菜-大模型与Agent开发实战
- folder:1-在线大模型部署调用
- folder:6-直播回放篇
- folder:PART4:DeepSeekV3 (5小节)
- folder:低代码开发实战Dify&Coze
- folder:DeepSeek-V3&R1
- folder:企业级实战
- folder:5-RAG项目实战企业篇
- folder:Agent开发实战-课件
- folder:开源大模型部署与调用-课件
- folder:加餐-前沿技术追更
- folder:1
分享时间 | 2025-08-19 |
---|---|
入库时间 | 2025-08-26 |
状态检测 | 有效 |
资源类型 | QUARK |
分享用户 | 不屈*挠的西瓜 |
资源有问题?
点此举报