基于 LLaMA 和 LangChain 实践本地 AI 知识库
基于 LLaMA 和 LangChain 实践本地 AI 知识库 本文讨论了人工智能领域的最新发展,主要围绕着基于 Transformer 和 MoE 架构的多模态模型 Gemini 1.5 Pro,以及 OpenAI 推出的支持从文字生成视频的模型 Sora。文章提到通用人工智能(AGI)的实现正在加速,指出 AI 应用落地的主要实践围绕大模型微调、提示词工程和知识增强展开。在介绍 LangChain 中的知识库构建过程中,涉及Loader、Splitter、Embeddings 和 VectorStore 等步骤。此外,还讨论了 RAG 和 GPTs 在实践中的应用,以及LangChain 中的 Chain 概念,以及如何将其与大语言模型和知识库结合以实现 Q&A 和 对话式检索。文章最后呼吁关注LangChain 的最新发展和替代品 AutoChain、Embedchain。
使用 llama.cpp 在本地部署 AI 大模型的一次尝试
使用 llama.cpp 在本地部署 AI 大模型的一次尝试 2023 年被誉为 AIGC 元年,随着技术浪潮,人们开始对人工智能的发展产生担忧。文章介绍了使用 llama.cpp 在本地部署AI大模型的过程,包括编译、量化和模型下载。通过对不同模型的体验,展示了其运行效果和评估。最后,将 ChatGPT-Next-Web 与 llama.cpp 结合,展示了本地部署 AI 大模型的潜力。整体讲述了私有化部署AI大模型的重要性和实践过程。