RAG
Cohere推出Rerank 3模型,助力企业搜索与RAG升级
-
重点
- Cohere发布Rerank3模型
- 专为企业搜索和RAG系统优化
- 兼容性强,提升性能降低成本
-
该模型兼容任何数据库或搜索索引,并且可以轻松插入到任何具有原生搜索功能的旧版应用程序中。仅需一行代码,Rerank3便能显著提升搜索性能或降低运行RAG应用的成本,同时对延迟的影响微乎其微。
-
Introducing Rerank 3: A New Foundation Model for Efficient Enterprise Search & Retrieval
Command-R
简介
- 官方网址:https://cohere.for.ai/ https://cohere.com/
- Cohere发布大模型Command-R:35B参数,128K上下文,高性能 RAG 功能,支持中文
- 35B参数,128K上下文,高性能 RAG 功能,支持中文
- Huggingface模型下载:https://huggingface.co/CohereForAI https://huggingface.co/Cohere
- AI快站模型免费加速下载:https://aifasthub.com/models/CohereForAI
描述
- Command-R优化了信息检索和增强生成的流程,提高了在企业级应用中的准确性和效率。检索:Cohere 的嵌入模型通过提高在搜索数百万甚至数十亿个文档时的上下文和语义理解,显著提高了检索步骤的有用性和准确性。同时,Cohere的Rerank模型进一步帮助提高检索到的信息的价值,优化自定义指标(如相关性和个性化)的结果。增强生成:在确定最相关的信息后,Command-R 可以总结、分析、打包这些信息,并通常将这些信息用于工作,以帮助员工提高工作效率或创造神奇的新产品体验。Command-R 独有的,该模型的输出带有清晰的引文,可降低幻觉的风险,并能够从源材料中显示其他上下文。
QAynthing
QAynthing简介
- 项目仓库:https://github.com/netease-youdao/QAnything
- 官方网址:https://qanything.ai/
- QAnything-1.3.0,支持纯python笔记本运行,支持混合检索
特点
- 数据安全,支持全程拔网线安装使用。
- 支持跨语种问答,中英文问答随意切换,无所谓文件是什么语种。
- 支持海量数据问答,两阶段向量排序,解决了大规模数据检索退化的问题,数据越多,效果越好。
- 高性能生产级系统,可直接部署企业应用。
- 易用性,无需繁琐的配置,一键安装部署,拿来就用。
- 支持选择多知识库问答。
RAGFlow
RAGFlow简介
- 项目仓库:https://github.com/infiniflow/ragflow star:1.1K
- 项目官网:https://ragflow.io
- 在线Demo:https://demo.ragflow.io
- 端到端 RAG 解决方案 RAGFlow:https://zhuanlan.zhihu.com/p/690164140
- RAGFlow 是一款基于深度文档理解构建的开源 RAG(Retrieval-Augmented Generation)引擎。RAGFlow 可以为各种规模的企业及个人提供一套精简的 RAG 工作流程,结合大语言模型(LLM)针对用户各类不同的复杂格式数据提供可靠的问答以及有理有据的引用。
- 用ragflow做了一款初中历史辅导助手
RAGFlow特点
- "Quality in, quality out"
- 基于深度文档理解,能够从各类复杂格式的非结构化数据中提取真知灼见。
- 真正在无限上下文(token)的场景下快速完成大海捞针测试。
- 基于模板的文本切片
- 不仅仅是智能,更重要的是可控可解释。
- 多种文本模板可供选择
- 有理有据、最大程度降低幻觉(hallucination)
- 文本切片过程可视化,支持手动调整。
- 有理有据:答案提供关键引用的快照并支持追根溯源。
- 兼容各类异构数据源
- 支持丰富的文件类型,包括 Word 文档、PPT、excel 表格、txt 文件、图片、PDF、影印件、复印件、结构化数据, 网页等。
- 全程无忧、自动化的 RAG 工作流
- 全面优化的 RAG 工作流可以支持从个人应用乃至超大型企业的各类生态系统。
- 大语言模型 LLM 以及向量模型均支持配置。
- 基于多路召回、融合重排序。
- 提供易用的 API,可以轻松集成到各类企业系统。
RQ-RAG
RQ-RAG简介
- 项目仓库:https://github.com/chanchimin/RQ-RAG
- RQ-RAG:准确率优于GPT3.5的小模型RAG策略,性能比Self-RAG还要好https://mp.weixin.qq.com/s/4__mcjxBRanzijIaQh3DfQ
- 查询精炼学习检索增强(RQ-RAG: Refine Queries for Retrieval Augmented Generation)
- 通过端到端训练了一个7B参数的Llama 2模型,能够动态地优化搜索查询,包括重写、分解和消除歧义