宝塔面板一键免费部署LobeChat聊天机器人开发自己私有的ChatGPT
宝塔面板部署一键免费部署LobeChat自己的私有聊天机器人 支持市场主流AId api调用;
宝塔面板Docker 部署LobeChat步骤
首先确保宝塔面板安装了“Docker管理器”
Docker 部署版本或是以后升级非常简单,只需要重新部署 LobeChat 的最新镜像即可。 以下是执行这些步骤所需的指令:
拉取最新的 LobeChat 镜像
使用以下命令拉取 LobeChat 的最新 Docker 镜像:
docker pull lobehub/lobe-chat
Docker 容器创建
拉取的镜像重新部署 LobeChat 容器的变量代码:
docker run -d -p 3210:3210 \ -e OPENAI_API_KEY=sk-xxxx \ -e OPENAI_PROXY_URL=https://uiuiapi.com/v1 \ -e ACCESS_CODE=lobe66 \ --name lobe-chat \ lobehub/lobe-chat
点开容器列表,点击创建容器
获取拉到的LobeChat 镜像
端口填写:LobeChat 端口为3210/3210
环境变量填入以上变量代码
以上步骤完成算是成功的部署了你的LobeChat自己的私有聊天机器人
如何访问部署好的LobeChat项目?
你的服务器地址加"http://ip:3210" 即可访问
如何绑定域名访问
在宝塔面板绑定你的域名,域名最好开启SSL访问。
设置返代;
部署好的LobeChat应用设置 api key
1.点击左上角的头像选"应用设置"
2.进去"应用设置"选择“语言模型”然后设置相关的 API key、api地址、AI模型选择设置。
3.设置语言模型完成返回即可开始使用AI聊天
API key准备
获取自己的openAI的API key(如果你没有openAI帐号就可以把这个文章关了,先去准备一个openAI帐号吧!或者转发API无法直接向官方接口https://api.openai.com/v1发起请求,需要将请求地址改为转发的api接口才可以使用“https://uiuiapi.com/v1”,大部分插件和软件都可以修改。)
OpenAI api key解决方案!开发者可以参考: 以 uiuihao.com 平台为例,申请并使用GPT-4 API密钥比较友好,可以快速主力开发者更好的节省折腾申请GPT-4 API KEY 密钥的时间。
LobeChat项目介绍
LobeChat是一个开源的、现代设计的LLMs/AI聊天框架。它支持多个AI提供商(如OpenAI、Claude 3、Gemini、Ollama、Bedrock、Azure、Mistral、Perplexity)和多模态(如视觉、TTS),并具备插件系统。用户可以一键免费部署自己的私有ChatGPT聊天应用。
它支持图像识别、语音转换、文本生成图像等多种功能,并且提供插件系统来扩展其功能。用户可以轻松部署和管理自己的聊天应用,并根据个人喜好自定义主题和设置。项目完全开源,用户可以自由扩展和贡献代码。
LobeChat 详细功能介绍
LobeChat 是一个现代设计的开源LLMs/AI聊天框架,支持多种AI提供商和多模态功能。以下是LobeChat的详细功能介绍:
1. 多模型服务提供商支持
支持多个模型服务提供商:LobeChat支持多种模型服务提供商,满足社区的多样化需求,提供更丰富的对话选择。
AWS Bedrock:集成了AWS Bedrock服务,支持Claude/LLama2模型,提供强大的自然语言处理能力。
Anthropic (Claude):接入Anthropic的Claude系列模型,包括Claude 3和Claude 2,突破多模态能力和扩展上下文,设定新的行业标准。
Google AI (Gemini Pro, Gemini Vision):接入Google的Gemini系列模型,包括Gemini和Gemini Pro,支持高级语言理解和生成。
Groq:接入Groq的AI模型,有效处理消息序列并生成响应,支持多轮对话和单次互动任务。
OpenRouter:支持包括Claude 3、Gemma、Mistral、Llama2和Cohere的模型路由,智能路由优化,提高使用效率。
01.AI (Yi Model):集成了01.AI的模型,API系列具有快速推理速度,缩短处理时间,同时保持出色的模型性能。
Together.ai:通过Together Inference API访问超过100个领先的开源聊天、语言、图像、代码和嵌入模型,仅按使用量付费。
ChatGLM:增加了智谱AI的ChatGLM系列模型(GLM-4/GLM-4-vision/GLM-3-turbo),提供高效的对话模型选择。
Moonshot AI (Dark Side of the Moon):集成了中国创新AI初创公司Moonshot的模型,提供更深层次的对话理解。
Minimax:集成Minimax模型,包括MoE模型abab6,提供更广泛的选择。
DeepSeek:集成中国创新AI初创公司DeepSeek的系列模型,设计平衡性能和价格的模型。
Qwen:集成Qwen系列模型,包括最新的qwen-turbo、qwen-plus和qwen-max。
未来计划:计划支持更多模型服务提供商,如Replicate和Perplexity,以进一步丰富服务提供商库。
2. 本地大语言模型支持
Ollama:支持基于Ollama的本地模型使用,用户可以灵活使用自己的或第三方模型。
3. 模型视觉识别
GPT-4-vision:支持OpenAI的GPT-4-vision模型,可以识别图像内容并进行智能对话。
4. 文本转语音和语音转文本(TTS & STT)
TTS(文本转语音):将文本消息转换为清晰的语音输出,用户可以选择多种声音。
STT(语音转文本):将语音转换为文本,提高互动体验。
5. 文本生成图像
图像生成:支持DALL-E 3、MidJourney和Pollinations等文本生成图像工具,用户可以在对话中生成图像。
6. 插件系统
功能调用插件:扩展功能调用能力,获取和处理实时信息,如新闻、搜索、生成图像等。
插件市场:用户可以发现和分享设计良好的插件,支持多语言版本。
7. 代理市场
多功能代理:代理市场提供多种工作和学习场景下的代理,支持国际化自动翻译。
代理商总数: 292
8. 支持本地/远程数据库
本地数据库:适用于需要更多数据控制和隐私保护的用户,使用CRDT技术实现多设备同步。
服务器端数据库:支持PostgreSQL,提供更方便的用户体验。
9. 多用户管理
Next-auth:支持多种身份验证方法,包括OAuth、邮件登录、凭证登录等。
Clerk:提供多因素认证(MFA)、用户配置管理、登录活动监控等高级用户管理功能。
10. 渐进式Web应用(PWA)
PWA技术:提供接近原生应用的体验,支持桌面和移动设备的高度优化用户体验。
11. 移动设备适配
移动优化:针对移动设备进行了优化设计,提供更流畅和直观的交互体验。
12. 自定义主题
主题模式:提供灵活多样的主题模式和颜色自定义选项,支持智能识别系统颜色模式。
13. 快速部署
一键部署:使用Vercel或Docker镜像,一键部署,过程简单快速。
自定义域名:用户可以绑定自己的域名,便于访问。
14. 隐私保护
数据本地存储:所有数据存储在用户浏览器本地,确保用户隐私。
15. 优秀的UI设计
UI设计:界面设计精美,提供顺畅的交互体验,支持Markdown渲染、代码高亮、LaTeX公式、Mermaid流程图等。。
技术特点
快速部署:使用Vercel平台或Docker镜像,一键部署,快速完成配置。
自定义域名:用户可绑定自己的域名,方便随时访问对话代理。
隐私保护:所有数据存储在用户的浏览器中,保障用户隐私。
精致的UI设计:界面设计精美,支持浅色和深色主题,移动友好。PWA支持提供更原生的体验。
流畅的对话体验:响应流畅,全面支持Markdown渲染,包括代码高亮、LaTex公式、Mermaid流程图等。
部署与开发
自托管版本:提供Vercel和Docker镜像的自托管版本,用户可以在几分钟内部署自己的聊天机器人。
本地开发:支持本地开发和GitHub Codespaces在线开发。
项目地址GitHub:https://github.com/lobehub/lobe-chat
在线体验:https://ai.uiuiagi.top/
暂无评论,1312人围观