在LobeChat中使用Gemini 2.5 Pro

快速简单配置使用Gemini 2.5 Pro API

Posted by wszqkzqk on March 29, 2025
本文字数:1303

前言

Gemini 2.5 Pro是Google最新(截至2025.03.29)推出的一款强大的推理模型,在多项测试中表现优异。

#~/img/llm/gemini_benchmarks_cropped_light2x_1PPmDuP.webp
Google Gemini 2.5 Pro与其他模型测试结果对比
#~/img/llm/final_2.5_blog_1.original.webp
Google Gemini 2.5 Pro与其他模型测试结果对比

目前,Gemini 2.5 Pro的API已经免费开放使用,但是Gemini的网页端尚未集成这一新的模型。因此,如果我们想要使用Gemini 2.5 Pro,就需要借助API来实现。

安装LobeChat Docker

LobeChat是一个开源的高性能聊天机器人框架,支持多种模型的接入和使用。网页版的LobeChat需要付费才能使用自己的API密钥,而自己部署的LobeChat则可以免费使用。

如果没有安装Docker,请参考Docker安装教程或者Arch Wiki进行安装和配置。

在安装好Docker后,打开终端,输入以下命令来首次运行LobeChat:

docker run -d -p 3210:3210 --name lobe-chat lobehub/lobe-chat:latest

如果你已经安装过LobeChat,可以使用以下命令来运行:

docker start lobe-chat

在LobeChat中配置

首先,访问Gemini的API页面并登录Google账号,点击创建API密钥。请注意,API密钥是非常重要的凭证,请不要泄露。

然后打开浏览器,访问LobeChat页面(比如127.0.0.1:3210,端口是前面-p 3210:3210处配置的)。点击页面左侧的发现

#~/img/llm/lobechat-discover.webp

随后点击上部的模型服务商

#~/img/llm/lobechat-providers.webp

找到Google Gemini:

#~/img/llm/lobechat-provider-google-gemini.webp

点击右侧的配置服务商,启用Google Gemini,并在API Key处填写之前获取的API密钥;同时,在模型列表中添加Gemini 2.5 Pro

#~/img/llm/lobechat-gemini-config.webp

随后,可以点击连通性检查来测试API是否可用。

如果测试成功,即可回到LobeChat的主页面,点击左侧的聊天,选择Google Gemini 2.5 Pro模型并使用。

缺点

这样LobeChat的简单客户端部署方式不支持上传图片以外的文件,因此不能使用Gemini 2.5 Pro阅读文献、代码等。LobeChat只有在服务端数据库部署的时候才支持上传其他文件,而这样的部署方式较为麻烦。

补充

Gemini 2.5 Pro的API目前使用频率限制为5 RPM,即每分钟最多5次请求,这可能不能适用于翻译等高频率的场景,但是对于复杂问题,模型的推理时间可能本来就比较久,因此5 RPM的限制基本上不会影响使用。

笔者发现目前Gemini 2.5 Pro已经可以在Google AI Studio中直接免费使用了,而且支持了上传文件的功能。(甚至支持指定YouTube上的视频作为输入)😂😂😂可以直接在Google AI Studio中使用Gemini 2.5 Pro进行文献阅读、代码分析等操作。Google AI Studio会限制每轮对话的Token数不超过1048576,这对于一般用户通常绰绰有余。

此外,OpenRouter AI也支持了Gemini 2.5 Pro,注册账号以后即可直接使用,但是对文件上传大小限制较严格,仅支持10 MiB以下的文件上传。