如何在Android Studio中使用Gemini进行AI Coding

如何在Android Studio中使用Gemini进行AI Coding

        Android Studio 作为安卓APP开发领域长期以来的核心开发工具,其稳定性和功能性已得到广泛认可。而 Gemini 作为 Google 推出的原生 AI 编程辅助系统,则为开发者提供了智能化的协作支持。

        在引入 Gemini 后,你不再需要频繁切换浏览器查文档、使用外部ai工具复制粘贴代码再回来调试 bug。它可以直接在 IDE 内理解你的项目结构、阅读你的代码上下文,生成函数、解释错误、甚至帮你优化逻辑或编写单元测试——这一切都发生在你熟悉的编辑器中,无缝衔接、无需离开代码界面。

Gemini in Android Studio官网链接

        接下来我将介绍如何在在Android Studio中直接使用Gemini以及调用Gemini API。

一、如何在 Android Studio 中启用 Gemini

1. 更新到最新版本的 Android Studio

Gemini 从 Android Studio Iguana(2024版) 起正式集成。如果你的 IDE 版本较旧(如 Electric Eel 或 Flamingo),需要先升级:Help → Check for Updates...
确保版本至少为 Koala 或更高,否则 Gemini 面板不会出现在工具栏中。

Android Studio下载链接

2. 登录 Google 账号

安装完成后,在 IDE 右上角点击 “Sign in to Google”,通过外部浏览器登录。登录成功后,你会看到工具栏中出现新的 Gemini 图标AI Assistant 面板。

如果你使用代理大概率无法直接通过!!!这时你需要在Android Studio中修改你的Host name和Port number:

打开设置中的网络和Internet,进入代理服务器编辑,查看自己的代理IP地址端口。

        打开Android Studio的设置(Setting),输入http可以找到HTTP Proxy,选择Manual proxy configuration(选择HTTP,在下面Host name栏填入代理IP地址,在Port number栏填入端口)

        这样就完成设置了,之后点击Log in to Google就可以重新登录了。

⚠️ 提示:如果登录时出现“Authorization failed”或“Blank page”,多半是代理或 Cookie 设置问题。如果按照上面的方法设置代理端口之后仍然无法进入,请检查自己的网络环境。

        成功后就可以开始使用啦,Gemini入口位于右边栏:

如果有时候点进对话框发现弹出如下提示:

则说明需要重新输入你的代理IP地址和端口号,分别填入Login和Password栏。即可恢复使用。

二、使用 API Key:在代码层调用 Gemini

1. 前往 Google AI Studio注册并获取 API Key。

在左侧边栏选择Dashboard,找到 Projects → 点击 “Import projects” 或 “Create a new project” 把你在 Google Cloud 上已有的项目导入进来或新建。

在左边栏选择Dashboard,在下拉选项中点击API keys,进入页面:

在 API Keys 页面,点击 “Create API Key”。

  • 在弹出的对话框里选择是创建一个新的 Google Cloud 项目,还是选择已有的项目来关联这个 Key。
  • 点击确认后,系统会生成一个字符串形式的 API Key。

2. 调用Gemini API

回到 IDE 或你的本地环境,把这个 Key 用环境变量、local.properties 等方式注入你的项目里即可使用。使用示例如下:

在项目根目录的 local.properties文件中添加:(将youkey替换为你的API key)

GEMINI_API_KEY=yourkey 

在Android Studio的 build.gradle 中加入依赖:

implementation("com.google.ai.client:generativeai:<latest-version>") 

在 Kotlin 代码中调用:(具体使用时注意根据实际情况修改代码中的参数)

import com.google.ai.client.generativeai.GenerativeModel val model = GenerativeModel( modelName = "gemini-1.5-pro", apiKey = BuildConfig.GEMINI_API_KEY ) suspend fun askGemini(prompt: String): String { val response = model.generateContent(prompt) return response.text ?: "" } 

现在,你的应用就能直接调用 Gemini 生成内容、自动补全代码、甚至为用户提供智能问答。

Read more

MusePublic Art Studio实战教程:用Streamlit前端调用PyTorch后端SDXL

MusePublic Art Studio实战教程:用Streamlit前端调用PyTorch后端SDXL 1. 引言:当艺术创作遇上极简AI工具 想象一下,你是一位设计师,脑子里突然蹦出一个绝妙的视觉创意。过去,你可能需要打开复杂的软件,或者学习一堆代码才能把它变成图像。现在,有一个工具,它把最强大的AI图像生成能力,装进了一个像苹果产品一样简洁优雅的界面里,让你动动手指就能把想法变成高清画作。 这就是MusePublic Art Studio。 它不是一个冰冷的代码库,而是一个为你准备好的、开箱即用的艺术工坊。它的核心是业界顶尖的Stable Diffusion XL (SDXL)模型,但神奇的是,你完全不需要知道什么是“扩散模型”,也不需要写一行代码。所有复杂的计算都藏在后台,你面前只有一个干净、专注的创作空间。 本文将带你一步步走进这个工坊,从零开始,手把手教你如何启动它、使用它,并创作出你的第一幅AI艺术作品。你会发现,驾驭前沿的AI绘画技术,原来可以如此简单和愉悦。 2. 环境准备与一键启动 在开始创作之前,我们需要先把MusePublic Art Stu

通义千问3-14B环境部署教程:Ollama+WebUI双Buff叠加指南

通义千问3-14B环境部署教程:Ollama+WebUI双Buff叠加指南 1. 引言 1.1 学习目标 本文旨在为开发者提供一套完整、可落地的 Qwen3-14B 模型本地化部署方案,结合 Ollama 的轻量级模型管理能力与 Ollama WebUI 的可视化交互优势,实现“一键启动 + 图形操作”的高效开发体验。通过本教程,你将掌握: * 如何在本地环境中部署 Qwen3-14B 模型 * 配置 Ollama 实现模型加载与推理服务 * 搭建 WebUI 界面实现对话交互 * 切换 Thinking / Non-thinking 双模式进行差异化调用 * 性能优化建议与常见问题排查 最终达成:单卡(如 RTX 4090)运行 148 亿参数模型,支持 128k 上下文、多语言翻译、

告别 Selenium:Playwright 现代 Web 自动化测试从入门到实战

告别 Selenium:Playwright 现代 Web 自动化测试从入门到实战

告别 Selenium:Playwright 现代 Web 自动化测试简明教程 前言:为什么选择 Playwright? 在 Web 自动化测试领域,Selenium 曾长期占据主流,但面对现代前端框架(React/Vue/Next.js)、复杂 SPA 应用和多端适配需求,其局限性逐渐凸显。Microsoft 推出的 Playwright 框架,凭借跨引擎、跨平台、智能化的特性,成为新一代自动化测试的优选方案。 相比于传统的 Selenium 或 Cypress,Playwright 具有以下优势: * 极致性能:基于浏览器上下文(Browser Context)隔离测试环境,启动速度比 Selenium 快 30%+,无冗余进程开销; * 智能等待:内置自适应等待机制,自动等待元素可交互,