AI

AI工具导航,免费AI写作工具推荐,国内外AI工具箱站点

36 篇文章
AI
2025年AI 元年:从炒作到务实,从工具到代理

2025年AI 元年:从炒作到务实,从工具到代理

2025 年,被许多人称为“AI 元年”或“代理之年”,却是人工智能发展从狂热预期转向现实校正的一年。一方面,技术进步显著,模型推理能力、多模态整合和开源生态取得突破;另一方面,AI 代理的“大跃进”并未如期到来,企业落地仍面临成本、可靠性与 ROI 挑战。这一年,AI 不再只是“聊天机器人”,而开

Dify 本地部署

Dify 本地部署

Dify 是一个开源的大语言模型(LLM)应用开发平台,支持工作流、RAG、Agent 等功能,非常适合本地私有化部署。推荐使用 Docker Compose 方式进行本地部署,这是最简单且官方推荐的方法。 前置要求 安装 Docker 和 Docker Compose(推荐最新版)。 Window

RAG 系统知识库建设指南:文件类型选择与预处理全攻略

RAG 系统知识库建设指南:文件类型选择与预处理全攻略

大家好,我是林三,最近在折腾 RAG(Retrieval-Augmented Generation,检索增强生成)系统时,发现知识库的文件质量直接决定了检索精度和整体效果。经过多次落地实践和踩坑,我总结了一套实用的文件选型与预处理流程,今天分享给大家,希望能帮到正在构建企业知识库、技术问答系统或个人

深入理解大模型缓存:从基础到显式缓存的实践指南

深入理解大模型缓存:从基础到显式缓存的实践指南

在大模型应用开发中,“缓存”是一个绕不开的关键话题——它既能让推理速度提升数倍,又能大幅降低API调用成本。但很多开发者对大模型缓存的认知还停留在“系统自动处理”的层面,忽略了其背后的分类逻辑、生命周期规律以及可主动掌控的优化空间。本文结合我的学习梳理,从基础概念到进阶实践,带你全面搞懂大模型缓存。

coze知识库中的搜索策略:语义、混合、全文

coze知识库中的搜索策略:语义、混合、全文

在知识库(Knowledge Base)系统中,尤其是结合检索增强生成(RAG,Retrieval-Augmented Generation)的场景下,搜索策略决定了从知识库中检索相关文档或片段的方式。这些策略主要用于处理用户查询,从海量非结构化数据(如文档、文本)中找出最相关的上下文,以供大语言模

AI能帮你做什么?

AI能帮你做什么?

AI真的已经强大到能渗透到生活和工作的方方面面了!作为2025年的最新一代AI(比如豆包、ChatGPT、Gemini、Claude、千问、文心一言等),能帮你做的事远超你的想象。下面按场景分类,给你列出最实用、最常见的20多种能力,基本覆盖日常90%需求。 1. 日常效率提升(生产力翻倍) 写邮件

2025年热门开源RAG框架推荐

2025年热门开源RAG框架推荐

2025年热门开源RAG框架推荐(Retrieval-Augmented Generation) 2025年,RAG技术已成熟,成为构建知识密集型AI应用的核心(如企业知识库、智能问答、文档搜索)。开源框架百花齐放,从代码级灵活到低代码可视化,各有侧重。以下基于GitHub活跃度、社区反馈、生产适用

Coze 开源版(Coze Studio)模型配置详细教程

Coze 开源版(Coze Studio)模型配置详细教程

Coze 开源版(Coze Studio)模型配置详细教程(2025年最新版) Coze Studio 开源版支持多种大模型(LLM),包括OpenAI、DeepSeek、豆包(Doubao)、通义千问(Qwen)、Gemini、Claude、Ollama本地模型等。配置方式有两种:早期版本主要通过