2022年底openAI的chatgpt的出现,让人们看到生成式AI的能力如此强大,引燃了生成式AI的一波浪潮。2025年春节前,DeepSeek的横空出世让大模型这个领域变得人人都可以参与进来,生成式AI大模型不再有非常高的显卡的门槛,普通的游戏本也能跑DeepSeek的蒸馏版8b模型。目前大模型有两个落地应用的方向,一个是知识库(知识增强,RAG),一个是智能体(Agent)。对于知识库来说,企业内部的大量私有化数据不适合放到外网应用,那么就诞生了私有化部署大模型的需求。而另一个方向智能体,它让我们的应用能够自动化、智能化的实现,让大模型变成我们的私人助理,提升我们的工作效率和生活体验。
那么我们怎么来实现知识库和智能体呢?目前有很多平台可以应用,比如Coze、Dify、langchain…,这些都是很有名气的平台或者框架,在github上面也很受欢迎。但是现阶段综合来看,Dify是一个更有优势的AI应用平台。Dify的官方主页 https://dify.ai/zh。
Dify主要优势如下:
- 能够私有化部署
这很重要!企业的私有化数据隐私性很强,不适合放到外网区。Dify的开源版本可以零成本的克隆到企业内网使用,无需连外网。安全性得以保证。 - 可视化拖拽方式开发工作流
通过可视化的界面,Dify可以快速构建各类工作流应用。 - Dify提供完整的AI基础设施
Dify为AI应用提供从构思、开发到部署、监控的全流程管理,可以10倍的提升AI应用开发体验。
本篇博客主要讲解Windows环境下的Dify平台的搭建。
安装Docker
Docker是一个非常好用的容器化管理工具。使用它可以不用担心应用环境依赖的问题,直接拉取别人打包好的镜像使用即可,做到一键式部署。安装Docker可以去其官方网站下载,https://www.docker.com/。
安装好Docker之后,我们可以在设置里面修改一下Docker的更新源,以便后面安装Dify时速度更快。
安装Dify
可以去Dify的github上面下载Dify的开源版本 https://github.com/langgenius/dify,clone项目到本地,docker启动。
克隆项目到本地后,进入到 dify-main\docker 目录下,启动cmd窗口。执行 docker compose up -d 命令。然后就耐心等待下载安装。
因为安装Dify涉及到的镜像比较多,跟网络关系很大。如果中途中断失败了,可以多次尝试安装。安装成功之后,会有Success的提示。
具体的安装过程可以参考Dify的说明文档 https://docs.dify.ai/zh-hans/getting-started/install-self-hosted/docker-compose。
启动Docker容器中的Dify
默认Dify应用的端口是80,如果说有其他应用占用了这个端口号,那么就需要先修改。在Dify的Docker目录下,docker-compose.yaml配置文件中找到ports节点,将其端口号由80修改为8080或者其它端口。
启动Docker之后,我们就可以在浏览器中打开Dify了。如我的地址 http://127.0.0.1:8080/apps 。
Dify中配置本地大模型
- 配置文件启用OLLAMA自定义模型
在配置本地大模型之前,先要配置一下Dify的Docker目录下的.env.example文件。
在这个文件的最后添加如下配置:
其中OLLAMA_MODELS是我本地的大模型下载安装地址。OLLAMA_API_BASE_URL设置的地址,下面Dify中配置Ollama需要用到。 - Dify应用中关联模型
在 部署离线版DeepSeek 这篇博客中,曾经通过Ollama将大模型下载到本地。这里可以在其基础上,在Dify中配置Ollama本地模型。这样我们的应用就可以完全在本地跑,不需要在线调用其他大模型的API,实现本地应用。
如图中所示,我的Ollama本地下载了DeepSeek的8b和14b模型以及嵌入模型bge-m3,然后在模型设置中选择对应的模型即可。
PS:如上便完成了Dify在Windows环境下的部署安装。2025年AI大模型落地了,赶紧玩起来吧 _