llama.cpp 本地部署大模型教程(极速上手版)
llama.cpp 是轻量高效的大模型本地推理框架,支持 CPU/GPU 加速、跨平台部署,核心是用 GGUF 格式量化模型,低配置也能流畅运行。
一、环境准备(极简版)
1. 系统与硬件要求
- 系统:Windows / Linux / macOS(全平台兼容)
- 内存:16GB+(7B模型最低8GB,13B+建议32GB)
- GPU(可选):NVIDIA(CUDA)、AMD(Vulkan)、Apple Silicon(Metal),加速推理速度
llama.cpp 是轻量高效的大模型本地推理框架,支持 CPU/GPU 加速、跨平台部署,核心是用 GGUF 格式量化模型,低配置也能流畅运行。
在其他机器上访问服务器的nextcloud时,提示如下信息:
通过不被信任的域名访问,请联系您的管理员。如果您就是管理员,请参照 config.sample.php 中的示例编辑 config/config.php 中的 “trusted\_domains” 设置。
# vim /var/www/html/config/config.php
问题描述
很多用户首次访问homeassistant,尤其是通过内网穿透访问时,通常会碰到网页反馈
400: Bad Request。
原因分析
首先检查虚拟机或容器运行是否正常,排除部署的问题后,分析主要原因在于homeassistant的安全设置。
解决方案
添加IP白名单
修改configuration.yaml文件,在其中添加如下代码:
RustDesk是一款开源的远程桌面软件,支持Windows、macOS、Linux、Android、iOS等全平台。相比于市面上常见的向日葵、TeamViewer等商业软件,自建RustDesk服务器有以下优势:
本教程将详细讲解如何在绿联NAS上通过Docker部署RustDesk自建服务器,并配置客户端实现远程控制。
Lsky Pro(兰空图床)的部署很简单,最推荐的方式是通过绿联NAS自带的 Docker 管理器来完成。我整理了两种主流的安装方案,你可以根据自己的技术偏好和数据库情况来选择。方案一是更适合新手的详细图形化界面指南,方案二则适合熟悉 docker-compose.yml 文件的用户。