当前位置: 首页 > news >正文

用cpolar告别局域网束缚,LocalAI 远程使用原来这么简单

文章目录

    • 前言
    • 【视频教程】
    • 1. Docker 部署
    • 2. 简单使用演示
    • 3. 安装 cpolar 内网穿透
    • 4. 配置公网地址
    • 5. 配置固定公网地址

前言

LocalAI 的主要功能是让用户在本地部署和运行 AI 模型,支持文本聊天、图像生成等多种任务,所有数据处理都在本地完成,不依赖外部服务器。

作为经常用 AI 工具的人,我很喜欢 LocalAI 的隐私保护能力,处理敏感数据时特别放心;而且它支持的模型多,能根据需求随时切换,操作界面也简单,小白也能快速上手。

用了 cpolar 后,生成公网地址,随时都能打开 LocalAI 处理工作。比如临时要给客户写方案,直接用手机访问远程的 LocalAI 生成大纲,效率提高不少,工作场景更灵活,再也不用被绑在局域网内的设备前了。

本文主要介绍如何在本地服务器部署无需依托高昂价格的 GPU,也可以在本地运行离线 AI 项目的开源 AI 神器 LoaclAI,并结合 cpolar 内网穿透轻松实现远程使用的超详细教程。

【视频教程】

1. Docker 部署

本例使用 Ubuntu 22.04 进行演示,使用 Docker 进行部署,如果没有安装 Docker,可以查看这篇教程进行安装:《Docker 安装教程——Linux、Windows、MacOS》

安装好 Docker 后,打开终端执行这行命令启动容器即可:

sudodocker run -ti --name local-ai -p8080:8080 localai/localai:latest-cpu

这里使用的镜像是仅使用 CPU 来运行的镜像,如果大家有 Nvidia 显卡的好 GPU,也可以使用下方命令拉取支持 N 卡的镜像来运行容器:

sudodocker run -ti --name local-ai -p8080:8080 --gpus all localai/localai:latest-gpu-nvidia-cuda-12

更多项目配置与使用详情大家也可以访问作者的 github 主页进行查看:https://github.com/mudler/LocalAI

2. 简单使用演示

容器启动后,我们在 Ubuntu 中使用浏览器访问 http://localhost:8080 即可打开 LocalAI 的 Web UI 页面:

能看到页面中央提示我们现在还没有添加大模型,我们可以点击 Gallery,在跳转页面选择一个大模型:

可以看到在这个界面中有 600 多个大模型,并且可以根据用途标签(文字转语音、图片生成、文章生成等等)进行筛选或者在下方输入框搜索指定的模型:

我这里以添加 llama-3.2-1b 模型来进行演示:点击 install 按钮安装等待完成即可

安装完成后,点击页面上方导航条中的 HOME 回到主页即可发现刚刚添加的 llama-3.2 模型:

想要使用这个 AI 大模型,点击上方导航中的 chat 即可与它聊天了:

点击右侧的模型选择,下拉框中会显示你已经安装的大模型:

目前我只安装了这一个,如果想继续安装其他大模型,可以点击页面上方导航栏中的 Models 进行选择:(跳转的就是首次挑选模型安装的那个页面)

3. 安装 cpolar 内网穿透

不过我们目前只能在本地局域网内访问刚刚部署的 LocalAI 来使用 AI 大模型聊天,如果想不在同一局域网内时,也能在外部网络环境使用手机、平板、电脑等设备远程访问与使用它,应该怎么办呢?我们可以使用 cpolar 内网穿透工具来实现远程访问的需求。无需公网 IP,也不用设置路由器那么麻烦。

下面是安装 cpolar 步骤:

Cpolar 官网地址:https://www.cpolar.com

使用一键脚本安装命令:

sudocurlhttps://get.cpolar.sh|sh

安装完成后,执行下方命令查看 cpolar 服务状态:(如图所示即为正常启动)

sudosystemctl status cpolar

Cpolar 安装和成功启动服务后,在浏览器上输入 ubuntu 主机 IP 加 9200 端口即:【http://localhost:9200】访问 Cpolar 管理界面,使用 Cpolar 官网注册的账号登录,登录后即可看到 cpolar web 配置界面,接下来在 web 界面配置即可:

4. 配置公网地址

登录 cpolar web UI 管理界面后,点击左侧仪表盘的隧道管理——创建隧道:

  • 隧道名称:可自定义,本例使用了: localai ,注意不要与已有的隧道名称重复
  • 协议:http
  • 本地地址:8080
  • 域名类型:随机域名
  • 地区:选择 China Top

点击创建:

创建成功后,打开左侧在线隧道列表,可以看到刚刚通过创建隧道生成了两个公网地址,接下来就可以在其他电脑或者移动端设备(异地)上,使用任意一个地址在浏览器中访问即可。

如图所示,现在就已经成功实现使用公网地址异地远程访问本地部署的 LocalAI 来用 AI 大模型聊天啦!

小结

为了方便演示,我们在上边的操作过程中使用 cpolar 生成的 HTTP 公网地址隧道,其公网地址是随机生成的。这种随机地址的优势在于建立速度快,可以立即使用。然而,它的缺点是网址是随机生成,这个地址在 24 小时内会发生随机变化,更适合于临时使用。

如果有长期使用 LocalAI,或者异地访问与使用其他本地部署的服务的需求,但又不想每天重新配置公网地址,还想让公网地址好看又好记并体验更多功能与更快的带宽,那我推荐大家选择使用固定的二级子域名方式来配置公网地址。

5. 配置固定公网地址

由于以上使用 cpolar 所创建的隧道使用的是随机公网地址,24 小时内会随机变化,不利于长期远程访问。因此我们可以为其配置二级子域名,该地址为固定地址,不会随机变化。

注意需要将 cpolar 套餐升级至基础套餐或以上,且每个套餐对应的带宽不一样。【cpolar.cn 已备案】

点击左侧的预留,选择保留二级子域名,地区选择 china top,然后设置一个二级子域名名称,我这里演示使用的是mylocal,大家可以自定义。填写备注信息,点击保留。

保留成功后复制保留的二级子域名地址:

登录 cpolar web UI 管理界面,点击左侧仪表盘的隧道管理——隧道列表,找到所要配置的隧道localai,点击右侧的编辑

修改隧道信息,将保留成功的二级子域名配置到隧道中

  • 域名类型:选择二级子域名
  • Sub Domain:填写保留成功的二级子域名
  • 地区: China Top

点击更新

更新完成后,打开在线隧道列表,此时可以看到随机的公网地址已经发生变化,地址名称也变成了保留和固定的二级子域名名称。

最后,我们使用固定的公网地址在任意设备的浏览器中访问,可以看到成功访问本地部署的 LocalAI Web UI 页面,这样一个永久不会变化的二级子域名公网网址即设置好了。

以上就是如何在本地 Ubuntu 系统使用 Docker 快速部署开源 AI 服务 LocalAI,并安装 cpolar 内网穿透工具配置固定不变的二级子域名公网地址,实现随时随地远程在线与 AI 大模型交互的全部流程,感谢您的观看,有任何问题欢迎留言交流。

总结:LocalAI 结合 cpolar,让本地 AI 服务的使用范围大大扩展,兼顾隐私与便捷,为用户带来更自由的 AI 应用体验,值得一试。

http://icebutterfly214.com/news/109440/

相关文章:

  • 【Dubbo从入门到精通:架构解析与实战落地】
  • 6G真的要来了?中国移动这次把“未来网络”摆到了台前
  • Geo优化【双核四驱】驱动企业增长:权威专家于磊深度解析
  • App项目后台如何用 XinServer 实现智能缓存机制?
  • 大家好,我是田螺.分享一道网上很火的腾讯面试题:40亿的QQ号,如何去重,1G的内存. 不过,有腾讯上班的朋友说,我们没出过这种面试题~ 哈哈~哈哈,anyway,这道题还是很有意思的. 它是一
  • 自主算力筑基 垂域模型破局:国产硬件架构下的行业大模型训练与微调服务实践
  • 半导体设备工厂自动化软件技术方案
  • 研究生如何利用AI在大量文献中筛选有价值信息?
  • 解决 Habitat 模拟器启动失败:EGL 与 CUDA 设备不匹配问题(unable to find CUDA device 0 among 3 EGL devices in total)
  • 智慧政务从试点到普及:AI数字人一体机在政务大厅的深度应用分析
  • LangChain + MCP:AI如何重构智能应用开发流程
  • Miniconda安装后无法使用conda命令?原因与解决方法
  • 【Java毕设项目】基于微信小程序的仓储管理系统+SpringBoot后端实现
  • 曙光屋sgwbox N3曝命令注入漏洞CVE-2025-14705,攻击者可远程利用
  • LobeChat插件系统详解:如何扩展AI助手的无限可能?
  • 敏感肌干燥脱皮用什么保湿修复霜?科学修护产品深度揭晓 - 资讯焦点
  • 陈列装置公司哪家有实力?行业优质服务机构盘点 - 品牌排行榜
  • 基于双PI控制器的PMSM控制系统simulink建模与仿真
  • 代码实现 基于 DeepEval 框架实现工单摘要质量的批量自动评估
  • Git tag标记Qwen3-VL-30B关键里程碑版本
  • 此扩展程序不再受支持?不如迁移到vLLM持续更新生态
  • 计算机硬件解剖:从拆解到性能优化
  • 从git下载到vLLM部署:全流程大模型服务搭建指南
  • DDoS 攻击有效防御:AWS 引领的云服务商平台级防护能力评估指标体系 - 品牌排行榜
  • AutoGPT联网搜索功能如何启用?详细配置说明来了
  • 2025年智能手机马达厂权威推荐榜单:智能戒指马达/智能项链马达/按摩仪马达源头厂家精选 - 品牌推荐官
  • 国产车床电主轴品牌推荐(2025年末测评) - 品牌推荐大师
  • 2025年12月新能源充电桩领域优质企业梳理:5 家企业以技术适配产业需求 - 深度智识库
  • 使用清华源加速下载Qwen3-14B模型镜像,提升GPU算力利用率
  • 基于springboot和vue框架的旅游攻略分享平台_0bv523sv