AI 智能答题助手 (AI Study Copilot) —— 你的下一代学习辅助神器

AI 智能答题助手 (AI Study Copilot) —— 你的下一代学习辅助神器

⚡️ AI 智能答题助手 (AI Study Copilot) —— 你的下一代学习辅助神器

一键抓取 · 深度解析 · 学习更轻松

功能特性安装指南使用说明赞助与支持免责声明


项目地址:点击访问
插件官网:点击访问

在这里插入图片描述

📖 项目介绍

AI 智能答题助手 (AI Study Copilot) 是一款专为在线学习设计的浏览器扩展。V1.2 版本迎来重大升级,打破模型限制,不仅内置 DeepSeek 智能引擎,更开放支持 OpenAI本地大模型 (LM Studio)

不同于传统的题库匹配软件,本插件不依赖静态题库,而是通过实时 AI 分析,能够处理全新的题目、变种题以及复杂的阅读理解题。我们秉持“技术辅助学习”的理念,致力于将繁琐的资料检索过程自动化。

✨ 功能特性

1. ♾️ 模型源自由切换 (New)

  • 本地模型无限刷:支持连接本地 LM Studio,数据不上云,零成本、无限制、隐私更安全!
  • 自定义 API:兼容 OpenAI 及任意第三方接口 (OneAPI/NewAPI),想用什么模型由你决定。
  • 内置 DeepSeek:无需配置,开箱即用(VIP 尊享每日 300 次极速解析)。

2. 🆔 账户权益保障 (New)

  • ID 备份与恢复:全新上线账户管理面板,支持查看与备份专属账户 ID。
  • 权益不丢失:无论是更换电脑还是重装系统,只需填入旧 ID,会员权益一键恢复。

3. 🛡️ 静默抓包引擎

  • 无感抓取:采用全新的旁路监听技术,自动拦截网页题目数据(AJAX/Fetch)。
  • 更强兼容:完美支持跨域 Iframe 及各种复杂的动态加载题库,抓包更稳、更隐蔽。

4. 🔍 HTML 深度扫描 (VIP)

  • 针对没有数据接口的老旧静态网页,提供 DOM 深度扫描 模式。
  • 直接从网页可见区域提取题目文本,支持 OCR 无法处理的复杂排版。

5. 👆 极简交互体验

  • 数据看板:新增 AI 生成耗时统计与响应时间显示,精准把控答题节奏。
  • 智能高亮:自动识别题型([单选]、[多选]、[填空]),并使用彩色标签高亮显示。

美观模态框:全新设计的交互弹窗,视觉更统一,操作更丝滑。

在这里插入图片描述

📥 安装指南

应用商店安装(推荐,自动更新)

平台下载链接说明
Chrome点击前往 Chrome Web Store谷歌浏览器专用
Firefox点击前往 Firefox Add-ons火狐浏览器专用
移动版点击前往 Firefox Add-ons for AndriodAndriod手机/平板版专用(火狐浏览器-移动版)

插件文件离线安装

平台下载链接说明
Chrome点击下载离线插件谷歌浏览器&Edge浏览器&360安全浏览器专用
Firefox点击下载离线插件火狐浏览器专用(支持Andriod手机/平板端火狐浏览器)

🚀 使用说明

  1. 进入题库页面:打开你需要学习的网课或题库网站。
    • 此时插件会自动监听题目数据。
    • 若捕获成功,右下角悬浮球会出现红点数字提醒。
  2. 查看解析
    • 点击悬浮球打开面板。
    • 勾选需要解析的题目数据包。
  3. 配置模型 (可选)
    • 如果没有抓到包,在面板中开启 “HTML 深度扫描” 开关。
    • 点击列表上方的 “深度扫描” 按钮。

深度扫描 (针对无接口页面)

在这里插入图片描述

打开设置面板,点击AI自定义模型源,可选择 “内置模型”“DeepSeek API”“OpenAI”“本地模型”

点击 “🚀 发送选中数据给 AI”


自动捕获


⚠️ 免责声明

在使用本软件前,请务必仔细阅读以下条款:

  1. 辅助学习工具:本软件开发的初衷是辅助用户进行知识检索和解析,帮助理解知识点。严禁将本软件用于任何形式的违反法律法规、违反校规校纪或第三方平台规则的行为(包括但不限于考试作弊)。
  2. 技术中立:开发者仅提供数据处理与 AI 接口调用的技术工具。用户利用本软件在第三方平台进行的任何操作,其后果完全由用户自行承担。
  3. 数据安全:本软件仅在用户主动操作时处理题目文本数据,绝不收集用户的账号密码、Cookie 或个人隐私信息。
  4. 合规使用:请勿利用本软件批量抓取他人拥有知识产权的题库数据用于商业牟利。

🛠️ 技术栈

  • 前端核心: Vanilla JavaScript (ES6+), HTML5, CSS3
  • 扩展框架: Chrome Extension Manifest V3
  • 通信机制: chrome.runtime, window.postMessage, MessageChannel
  • 网络拦截: XMLHttpRequest Proxy, Fetch Proxy (Silent Bypass)
  • AI 接口: Multi-Provider Support (Built-in Proxy / OpenAI / LM Studio)

📄 License

MIT License © 2026 Hx0 Team

Read more

全面的System Verilog教程:从基础到高级验证

本文还有配套的精品资源,点击获取 简介:System Verilog是用于系统级验证、芯片设计与验证以及FPGA实现的强大硬件描述语言。它扩展了Verilog的基础特性,支持高级语言结构,如类、接口、任务和函数,优化了验证流程。教程内容涵盖System Verilog的基础概念、结构化编程元素、并发与同步机制、现代验证方法学、UVM验证方法论以及标准库的应用。旨在教授学生掌握System Verilog语法和高级特性,实现高效、可维护的验证代码。 1. System Verilog概述及应用领域 1.1 System Verilog的起源与发展 System Verilog是作为硬件设计和验证领域的重要语言,由Verilog发展而来,随后被进一步扩展以满足现代电子设计自动化的需要。其发展始于20世纪90年代,目的是在原有Verilog HDL的基础上,提供更为强大的设计验证功能。 1.1.1 Verilog与VHDL的区别 虽然Verilog和VHDL都是硬件描述语言(HDL),但它们在语法和使用方法上存在差异。Verilog更接近于C语言,而VHDL的语法结构则更接近

Flutter 三方库 eth_sig_util 的鸿蒙化适配指南 - 掌握以太坊加密签名核心技术、助力鸿蒙端 Web3 钱包与去中心化身份验证应用开发

Flutter 三方库 eth_sig_util 的鸿蒙化适配指南 - 掌握以太坊加密签名核心技术、助力鸿蒙端 Web3 钱包与去中心化身份验证应用开发

欢迎加入开源鸿蒙跨平台社区:https://openharmonycrossplatform.ZEEKLOG.net Flutter 三方库 eth_sig_util 的鸿蒙化适配指南 - 掌握以太坊加密签名核心技术、助力鸿蒙端 Web3 钱包与去中心化身份验证应用开发 前言 在 OpenHarmony 鸿蒙应用的 Web3 浪潮中,安全性是应用生死存亡的关键。无论是构建非托管钱包、登录去中心化应用(dApp),还是执行 EIP-712 结构化数据的确认,都离不开严谨的以太坊签名与加密协议。eth_sig_util 作为一个专门针对以太坊签名习惯优化的 Dart 工具库,支持 personal_sign、signTypedData 以及公钥恢复等核心算法。本文将指导你如何在鸿蒙端集成 eth_sig_util,构建一套符合全球标准的加密验证体系。 一、原原理分析 / 概念介绍 1.

3分钟学会Whisper-WebUI:免费语音转文字终极指南

还在为会议录音整理发愁吗?面对长达数小时的音频文件,手动转写不仅耗时耗力,还容易出错。Whisper-WebUI正是为了解决这一痛点而生的开源工具,让语音转文字变得像拍照一样简单! 【免费下载链接】Whisper-WebUI 项目地址: https://gitcode.com/gh_mirrors/wh/Whisper-WebUI 什么是Whisper-WebUI? Whisper-WebUI是一个基于OpenAI Whisper模型的语音转文字Web界面,支持多种语言识别、实时转录、音频分离等强大功能。无论你是学生整理课堂笔记,还是职场人士处理会议录音,这个工具都能帮你节省大量时间。 核心优势: * 🎯 支持70多种语言自动识别 * ⚡ 处理速度比传统方法快很多 * 🆓 完全免费开源,无需付费订阅 * 📱 支持本地部署,数据安全有保障 快速上手:5步安装指南 环境准备 首先确保你的电脑满足以下要求: * 操作系统:Windows 10/11、macOS 10.14+ 或 Linux * Python版本:3.8或更高 * 内存:至少4GB(

3分钟快速上手:llama-cpp-python完整安装配置指南

3分钟快速上手:llama-cpp-python完整安装配置指南 【免费下载链接】llama-cpp-pythonPython bindings for llama.cpp 项目地址: https://gitcode.com/gh_mirrors/ll/llama-cpp-python 想要在本地快速运行大语言模型却苦于复杂的安装配置?llama-cpp-python是专为新手打造的Python集成库,让您轻松访问强大的llama.cpp推理引擎。这份完整的技术工具安装配置指南将带您从零开始,快速上手本地AI开发!🚀 📦 基础安装:一步到位 llama-cpp-python的安装过程极其简单,只需一行命令: pip install llama-cpp-python 这个命令会自动从源码构建llama.cpp,并将其与Python包一起安装。如果遇到构建问题,可以添加--verbose参数查看详细构建日志。 ⚡ 硬件加速配置 想要获得最佳性能?根据您的硬件选择合适的加速后端: CUDA加速(NVIDIA显卡) CMAKE_ARGS="-DGGML_CUDA=