标签: LLM

13 篇文章

thumbnail
密码保护:Rocky Linux 9 AI 系列 014 — 基于 Docker 部署 ComfyUI
ComfyUI 是基于节点流程的 Stable Diffusion WebUI,旨在通过自定义工作流快速实现多种图像生成服务,包括批量图片处理、老照片修复、换脸、换背景等,主要应用于电商、影视、创意设计等领域。其优势在于低显存要求、高生成自由度、环境和模型可共享,以及可复现和自动还原工作流程。然而,操作门槛较高且生态系统尚不完善。本文主要介绍在 Rocky Linux 9 和 Ubuntu 20.04 环境中使用 Docker 部署 ComfyUI 的方法,并包含详细的 Dockerfile、entrypoint.sh 和 docker-compose.yaml 配置。
thumbnail
密码保护:Rocky Linux 9 AI 系列 013 — 使用开源 RAGFlow 结合 Qwen2 构建帮忙中心Q&A
本文介绍了阿里巴巴最新发布的大语言模型 Qwen2.5 的特点及其多模态、多语言处理能力,并通过详细步骤展示了如何在 Ollama 上部署 Qwen2.5 模型以及使用 RAGFlow 构建本地知识库。重点强调了在实际应用中,精准的提示词、准确的关键词定义以及高质量数据解析对提高回答准确性的重要性。最终建议结合 GPT 来处理和优化文档内容,以提升自动化程度和用户体验。
thumbnail
密码保护:Rocky Linux 9 AI 系列 011 — 使用开源 RAGFlow 结合 Azure OpenAI 构建企业知识库
本文首先介绍了RAGFlow,这是一款基于深度文档理解的开源检索增强生成(RAG)引擎,可为不同规模的企业和个人提供简化的RAG工作流程。接着,详细描述了RAGFlow的部署步骤,包括系统要求、Linux内核参数调整和Docker容器安装。文中还展示了如何配置Azure OpenAI模型提供商、知识库和数据集,并提供了基于个人笔记的实例进行测试验证,显示了RAGFlow在问答及引用方面的效果。此外,本文探讨了在企业环境中构建有效知识库所面临的挑战,以及不同大语言模型(LLM)在此过程中表现出的差异,尤其是嵌入模型与大语言模型的最佳组合。文章也提示了构建企业级知识库时需要重点考虑的诸多复杂问题,并对不同行业人员给出针对性的建议。最后,文中提供了一些主要参考文献,以便读者深入了解和进一步研究。
thumbnail
密码保护:Rocky Linux 9 AI 系列 010 — LiteLLM 反代 Azure OpenAI
本文介绍了LiteLLM,这是一款专为大语言模型(LLM)服务提供代理网关的工具,能够代理包括OpenAI、Azure OpenAI等在内的多种LLM提供商,并支持统一的API调用方式。文中详细描述了如何通过LiteLLM代理Azure OpenAI,从而使Open-WebUI能够调用Azure OpenAI接口进行自然语言处理。具体内容包括LiteLLM和Open-WebUI的部署步骤与配置方法,以及如何在Open-WebUI中设置LiteLLM代理和默认模型。通过示例,本文展示了如何使用LiteLLM实现对话管理和模型切换功能。此外,文章还介绍了其他可选的开源产品,并提供了一些相关的参考文献供进一步研究。
thumbnail
密码保护:Rocky Linux 9 AI 系列 009 — Ollama 结合 Open-WebUI 实现自然语言交互
本文介绍了Open-WebUI,它最初是为Ollama设计的WebUI工具,现已扩展为一个独立项目,支持多种LLM(大语言模型)运行器。Open-WebUI功能丰富,用户友好,旨在完全离线运行,使用户可以通过浏览器方便地与本地大模型进行交互。文章详细描述了部署Open-WebUI的步骤,包括基于Docker的配置、启动以及针对模型下载所需的代理设置。同时,还介绍了如何将Ollama和Open-WebUI结合,并在其上进行模型设置、管理和默认模型配置。文章还涵盖了如何设置用户注册选项以及启用网络搜索功能。
thumbnail
Rocky Linux 9 AI 系列 008 — 使用 Ollama 构建本地大模型
前述 自从 OpenAI 于 2022 年 11 月 30 日发布 ChatGPT 以来,经过 2023 年的不断发展,大语言模型的概念已经深入人心。基于大语言模型的各种周边产品和集成工具层出不穷,呈现出百花齐放的局面。在这一过程中,许多本地化的模型应用方案也应运而生。对于一些企业知识库问答的场景,模型本地化成为首要考虑的问题。因此,如何本地化调教...
thumbnail
Rocky Linux 9 AI 系列 006 — 卸载 NVIDIA 显卡驱动
与安装 NVIDIA 显卡驱动相比,卸载驱动相对简单。然而,卸载驱动的方式会因安装方法的不同而有所变化。对于通过离线方式安装的 NVIDIA 显卡驱动,可以直接使用 /usr/bin/nvidia-uninstall 命令进行卸载。对于通过在线方式安装的 NVIDIA 显卡驱动,如果安装的是 nvidia-driver:560,可以采用与离线...
thumbnail
密码保护:Rocky Linux 9 AI 系列 005 — 在线安装 NVIDIA 闭源驱动
本文详细介绍了在 Rocky Linux 9 上在线安装 NVIDIA 闭源驱动的步骤和注意事项。相比于离线安装,在线安装较为复杂,需要了解不同类型驱动的差异和选择适合的选项。安装步骤包括启用 EPEL 源、配置 BIOS 安全引导和禁用开源驱动等。文章还详细说明了如何获取显卡信息、安装依赖包和驱动模块的具体操作。驱动模块分为标准版、DKMS 版和开源版,三者适用于不同的使用场景。标准版适合需要高性能和稳定性的用户,DKMS 版适合经常更新内核的用户,而开源版则适合倾向于开源软件的用户。文章通过实际操作步骤展示如何启用和安装合适的驱动模块,同时提供了验证驱动是否正确安装的方法。若使用场景仅限于普通图形处理,本文所述步骤已经足够。如果涉及高级需求如科学计算或 CUDA 应用,可以参考文末提供的相关文献。
thumbnail
Rocky Linux 9 AI 系列 004 — 安装 cuDNN
cuDNN 简介 cuDNN(CUDA Deep Neural Network library)是由 NVIDIA 提供的一个 GPU 加速库,专门用于深度学习中的神经网络操作。cuDNN 提供了高度优化的实现,支持卷积、池化、归一化、激活函数以及 RNN(循环神经网络)等常见的神经网络操作。 cuDNN 的作用 加速深度学习:cuDNN...