Cloudflare免费中转Gemini API:国内爽用顶级AI模型

193

谷歌Gemini是目前一线AI模型中为数不多提供免费API的,这为开发者和AI爱好者提供了极大的便利。通过借助Cloudflare,我们可以将Gemini API中转到国内,从而实现免费使用这一强大AI模型的目的。本文将详细介绍如何利用Cloudflare中转Gemini API,并展示其在AI编程、聊天以及多模态应用中的强大能力。

准备工作

首先,我们需要注册一个Cloudflare账号,并将域名托管到Cloudflare上。关于Cloudflare的使用以及如何获得免费域名,网上有很多教程,这里不再赘述。简而言之,你需要一个域名,并通过Cloudflare进行管理,以便后续的API中转。

Gemini API的OpenAI格式转换

接下来,我们需要借助一个名为openai-gemini的GitHub项目,该项目的作用是将Gemini API转换为OpenAI API格式,从而更好地兼容现有的AI工具和平台。

项目地址:https://github.com/PublicAffairs/openai-gemini

该项目提供了一种部署到Cloudflare Worker的方式,通过这种方式,我们可以实现以下两个目标:

  1. 将API中转到国内,解决网络访问问题。
  2. 将Gemini API转换为通用的OpenAI格式,方便集成。

点击项目页面上的“Deploy with Worker”按钮,按照提示填写Account ID和API Token。Account ID可以在Cloudflare的Worker Dashboard中找到,API Token则需要创建一个具有Cloudflare Worker使用权限的令牌。

获取Account ID

登录Cloudflare,进入Worker Dashboard,在右侧即可找到Account ID,复制并填写到部署页面。

创建API Token

点击“My Profile”按钮,然后选择“Create Token”。选择“Edit Cloudflare Workers”模板,账户资源选择“All accounts”,权限选择“Include all zones”,然后点击“Continue to summary”,最后点击“Create Token”。复制生成的令牌,并填写到部署页面。

Fork GitHub项目并开启Actions

接下来,我们需要登录自己的GitHub账号,将openai-gemini项目Fork到自己的仓库。然后,开启Fork后的项目的GitHub Actions功能。在项目页面点击“Actions”,然后点击“I understand my workflows, go ahead and enable them”。

开启Github action功能

回到之前的部署页面,点击“Workflow enabled”,最后点击“Deploy”。等待Worker部署完成。

配置Cloudflare Worker

部署完成后,点击“Worker Dash”进入Cloudflare Worker的Dashboard。在这里,你可以看到一个名为“Gemini”的Worker,这就是我们刚刚部署好的。点击进入,选择“设置”,然后添加一个域名,以便在国内正常使用。你需要选择你已经托管到Cloudflare上的域名。

申请Gemini API Key

现在,我们需要申请一个免费的Gemini API Key。

申请地址:https://aistudio.google.com/

你需要一个能够连接到谷歌的网络环境才能访问此页面。进入后,点击“Get API key”,然后选择“Create API key”。随便填写一个项目名称,点击创建,即可获得API密钥。

API测试

使用API测试工具,如Postman,测试API是否可用。将域名替换为你Cloudflare Worker的域名,并将API Key添加到Header中。

示例:

curl --location "https://gemini.your-domain.com/v1/models"  --header "Authorization: Bearer YOUR_API_KEY"

如果返回模型列表,则表示API配置成功。其中,gemini-2.0-flash-exp是速度最快的模型,而gemini-exp-1206则是目前谷歌最强大的模型。

Gemini API的应用实战

接下来,我们通过几个实际案例来展示Gemini API的使用方法。

AI对话

我们可以使用Chatbox这款开源的聊天客户端来与Gemini进行对话。

ChatBox:https://github.com/Bin-Huang/chatbox

下载安装Chatbox后,点击左下角的设置,选择“OpenAI API”,然后将域名替换为你自己的域名,API密钥填写Gemini API Key。在自定义模型中,添加一个名为gemini-2.0-flash-exp的模型,然后保存。

AI编程

Cursor是一款流行的AI编程工具,我们可以使用Gemini API来增强其编程能力。在Cursor的设置中,选择“Models”,找到“OpenAI API Key”,将链接替换为你自己的域名,并填写Gemini API Key。然后,点击“Add model”,添加一个名为gemini-exp-1206的模型,勾选并保存。

Cursor配置

Gemini在AI编程方面的优势在于其超长的上下文长度。例如,2.0 Flash模型的上下文长度远大于其他模型,使其能够一次性读取整个中小型项目的源代码,从而更好地理解和生成代码。

上下文长度对比

多模态API的应用

Gemini最强大的特性之一是其原生的多模态能力,即实时的音视频通话。然而,这一功能需要使用WebSocket API来实现。

为了方便使用Gemini的WebSocket API,可以使用一个代理项目。

Worker代理WebSocket多模态:https://github.com/tech-shrimp/gemini-proxy

目前该项目还比较简陋,但如果用户反馈良好,将会对其进行完善。

部署WebSocket代理

回到Cloudflare,选择“Workers & Pages”,点击“Create application”,然后选择“Create Worker”。

创建worker

将Worker命名为gemini-websocket-proxy,点击“Deploy”,然后点击“Edit code”。

将GitHub项目中的worker.js代码复制到Cloudflare Worker的代码编辑器中,覆盖原有代码。然后,点击“Deploy”,再点击“Settings”,添加一个域名。

测试多模态API

可以使用GitHub上的一个Gemini客户端项目进行测试。

Gemini多模态客户端:https://github.com/ViaAnthroposBenevolentia/gemini-2-live-api-demo

该项目使用原生JavaScript实现Gemini的多模态API。首先,创建配置文件config.js,并将Gemini API Key填入其中。

API Key配置

然后,修改core/websocket-client.js文件,将连接地址更改为你的域名。

修改websocket地址

按照项目说明启动项目。

总结

通过Cloudflare中转Gemini API,我们可以免费在国内使用这一强大的AI模型。无论是AI对话、AI编程还是多模态应用,Gemini都展现出了卓越的能力。希望本文能够帮助你更好地利用Gemini API,探索AI的无限可能。