前言
Gemini 2.5 Pro是Google最新(截至2025.03.29)推出的一款强大的推理模型,在多项测试中表现优异。
![]() |
---|
Google Gemini 2.5 Pro与其他模型测试结果对比 |
![]() |
---|
Google Gemini 2.5 Pro与其他模型测试结果对比 |
目前,Gemini 2.5 Pro的API已经免费开放使用,但是Gemini的网页端尚未集成这一新的模型。因此,如果我们想要使用Gemini 2.5 Pro,就需要借助API来实现。
安装LobeChat Docker
LobeChat是一个开源的高性能聊天机器人框架,支持多种模型的接入和使用。网页版的LobeChat需要付费才能使用自己的API密钥,而自己部署的LobeChat则可以免费使用。
如果没有安装Docker,请参考Docker安装教程或者Arch Wiki进行安装和配置。
在安装好Docker后,打开终端,输入以下命令来首次运行LobeChat:
docker run -d -p 3210:3210 --name lobe-chat lobehub/lobe-chat:latest
如果你已经安装过LobeChat,可以使用以下命令来运行:
docker start lobe-chat
在LobeChat中配置
首先,访问Gemini的API页面并登录Google账号,点击创建API密钥
。请注意,API密钥是非常重要的凭证,请不要泄露。
然后打开浏览器,访问LobeChat页面(比如127.0.0.1:3210
,端口是前面-p 3210:3210
处配置的)。点击页面左侧的发现
:
随后点击上部的模型服务商
:
找到Google Gemini:
点击右侧的配置服务商
,启用Google Gemini,并在API Key处填写之前获取的API密钥;同时,在模型列表
中添加Gemini 2.5 Pro
:
随后,可以点击连通性检查
来测试API是否可用。
如果测试成功,即可回到LobeChat的主页面,点击左侧的聊天
,选择Google Gemini 2.5 Pro
模型并使用。
缺点
这样LobeChat的简单客户端部署方式不支持上传图片以外的文件,因此不能使用Gemini 2.5 Pro阅读文献、代码等。LobeChat只有在服务端数据库部署的时候才支持上传其他文件,而这样的部署方式较为麻烦。
补充
Gemini 2.5 Pro的API目前使用频率限制为5 RPM,即每分钟最多5次请求,这可能不能适用于翻译等高频率的场景,但是对于复杂问题,模型的推理时间可能本来就比较久,因此5 RPM的限制基本上不会影响使用。
笔者发现目前Gemini 2.5 Pro已经可以在Google AI Studio中直接免费使用了,而且支持了上传文件的功能。(甚至支持指定YouTube上的视频作为输入)😂😂😂可以直接在Google AI Studio中使用Gemini 2.5 Pro进行文献阅读、代码分析等操作。Google AI Studio会限制每轮对话的Token数不超过1048576,这对于一般用户通常绰绰有余。
此外,OpenRouter AI也支持了Gemini 2.5 Pro,注册账号以后即可直接使用,但是对文件上传大小限制较严格,仅支持10 MiB以下的文件上传。