AIGC 应用工程师、人工智能训练工程师、人工智能算法工程师、人工智能标注工程师、AI智能体应用工程师、生成式人工智能应用工程师

(一)报考条件:年满18周岁

(二)报名及考试流程 

1.  学生填写报名表:姓名、性别、身份证号、电话号码、所报证书名称、级别,务必保证信息正确。

2. 使用电子照片要求:

背景颜色:蓝色、白色;

3. 拿证周期:3-4个月

人工智能应用工程师(高级)课程体系解读

课程体系围绕人工智能应用工程师(高级) 职业技能培养,分 6 大阶段,覆盖环境搭建、数据处理、核心算法、实战应用、效果测试与职业考核全流程,是从基础到高阶的完整 AI 应用开发学习路径。

一、阶段核心内容与能力目标

1. 人工智能环境管理

  • 核心课程:环境与存储系统配置
  • 知识模块:Python/Spark 环境搭建、虚拟机与 Java 安装、Hadoop 集群配置、分布式服务框架与数据库
  • 能力目标:掌握 AI 开发基础环境搭建,具备分布式存储与计算环境部署能力,解决 AI 项目运行的底层环境问题。

2. 人工智能数据管理

  • 核心课程:数据标注技术、数据迁移技术
  • 知识模块:数据标注方法、数据迁移工具
  • 能力目标:掌握 AI 数据预处理核心环节,能完成数据标注与跨平台 / 系统的数据迁移,保障 AI 模型训练的数据质量。

3. 人工智能应用编程(核心阶段)

该阶段为课程核心,分 4 大模块,覆盖深度学习、计算机视觉、自然语言处理、语音识别四大 AI 主流应用方向,理论 + 实战结合,是培养 AI 应用开发能力的关键。

(1)深度学习算法
  • 核心内容:人工神经网络、循环神经网络(LSTM)、生成对抗网络等理论,以及 TensorFlow2、PyTorch、MindSpore 三大框架的深度学习实现(含手写数字识别、猫狗大战等经典案例)
  • 能力目标:掌握深度学习核心原理与主流框架实操,能独立完成基础深度学习模型的搭建、训练与预测。
(2)计算机视觉实战
  • 核心内容:乳腺组织病理图像分类、肝脏肿瘤分割、电力巡检智能缺陷检测、人脸智能生成等工业 / 医疗 / 安防场景实战,涵盖数据预处理、图像增强、模型训练、YOLO-V3 目标检测等技术
  • 能力目标:具备计算机视觉项目全流程开发能力,能解决图像分类、分割、目标检测等实际场景问题。
(3)自然语言处理
  • 核心内容:词袋模型、TF-IDF、Word2Vec、Doc2Vec 等文本表示方法,以及垃圾短信识别、问政留言分类、股市评论情感分析、Seq2Seq 机器翻译等 NLP 实战
  • 能力目标:掌握 NLP 核心技术与实战方法,能完成文本分类、情感分析、机器翻译等自然语言处理任务。
(4)语音识别技术
  • 核心内容:语音识别概述、音频处理(时域 / 频域 / Mel 谱图、降噪、预加重等)、语音特征提取、声纹识别,以及英文字符语音识别、语音智能合成实战
  • 能力目标:掌握语音信号处理与识别技术,能实现语音识别、合成等语音类 AI 应用开发。

4. 人工智能应用测试

  • 核心课程:模型效果测试
  • 知识模块:市财政收入分析及预测、P2P 信贷结果预测等案例,涵盖相关性分析、Lasso 回归、非结构化数据处理、缺失值 / 异常值处理、模型预测等
  • 能力目标:掌握 AI 模型效果评估与优化方法,能完成模型测试、数据预处理与业务场景的预测任务。

5. 职业技术考核

  • 核心内容:人工智能应用工程师(高级)职业技术考试
  • 目标:通过职业技能考核,获得高级工程师职业认证,验证 AI 应用开发综合能力。

二、课程体系特点与价值

  1. 全栈式培养:从底层环境搭建到上层应用开发、测试,覆盖 AI 应用工程师全工作流程,无技能断层。
  2. 框架全覆盖:包含 TensorFlow2、PyTorch、MindSpore 三大主流深度学习框架,适配不同企业技术栈需求。
  3. 场景化实战:案例覆盖医疗、金融、安防、政务、工业等多行业,贴合实际业务需求,提升项目落地能力。
  4. 职业导向:以高级工程师职业技能考试为目标,兼顾技术学习与职业认证,提升就业竞争力。

三、学习建议

  1. 基础先行:先扎实掌握环境管理与数据管理阶段内容,为后续算法与实战学习打牢底层基础。
  2. 框架聚焦:可优先主攻 1-2 个深度学习框架(如 PyTorch+TensorFlow2),避免分散精力,再拓展其他框架。

实战驱动:每个模块的实战案例需亲手复现,重点理解数据预处理、模型搭建与优化的核心逻辑,而非仅停留在代码运行。

  1. 行业深耕:结合自身职业方向,重点钻研对应场景(如金融方向侧重信贷预测、NLP 情感分析;医疗方向侧重病理图像分类、肿瘤分割)。

四、部分科目培训和考试

图片

图片

Read more

Stable Diffusion v2-1-base模型使用指南:从新手到高手的文本到图像生成技巧

想要轻松玩转Stable Diffusion v2-1-base模型,实现高质量的文本到图像生成效果吗?这份指南将带你从基础入门到进阶应用,用最接地气的方式解锁AI绘画的魅力。 【免费下载链接】stable-diffusion-2-1-base 项目地址: https://ai.gitcode.com/hf_mirrors/ai-gitcode/stable-diffusion-2-1-base 🎯 新手常见疑惑解答 模型能帮我做什么? Stable Diffusion v2-1-base模型就像你的专属AI画师,只要输入文字描述,就能生成对应的图像。无论是: * 🎨 创意设计:为你的作品集添加独特视觉元素 * 📚 教学辅助:制作生动有趣的课件配图 * 🚀 灵感激发:快速将脑海中的想法可视化 遇到报错怎么办? 初次使用时可能会遇到这些问题: # 依赖包缺失的解决方案 pip install diffusers transformers accelerate scipy safetensors 如果提示GPU内存不足,可以试试这个技巧: # 启用内存优化

By Ne0inhk

Whisper-large-v3详细步骤:云端部署一看就会

Whisper-large-v3详细步骤:云端部署一看就会 你是不是也和我当年一样,刚读研时被导师安排跑通一个语音识别实验,点开Whisper的GitHub页面却一脸懵?各种依赖、环境冲突、CUDA版本不匹配……光是安装就花了三天,还没开始训练模型人已经快崩溃了。别慌!现在完全不用这么折腾了。 今天我要分享的是——如何用预置镜像在云端GPU上,2小时内从零部署Whisper-large-v3并完成语音转文字测试。特别适合像你我这样的研究生小白,不需要懂太多底层细节,只要跟着一步步操作,就能把任务搞定交差。核心思路就是:跳过所有环境配置坑,直接用ZEEKLOG星图平台提供的Whisper专用镜像,一键启动+即拿即用。 这个镜像已经帮你装好了PyTorch、CUDA、HuggingFace Transformers、ffmpeg等所有必要组件,甚至连whisper库都配好了最新版。你只需要上传音频文件,运行几行命令,就能看到结果输出。整个过程就像“打开App→导入视频→点击转换”一样简单。而且支持对外暴露服务接口,后续还能扩展成Web应用或集成到其他系统里。下面我就手把手带你走完全流

By Ne0inhk
【GitHub Copilot】Figma MCP还原设计稿生成前端代码

【GitHub Copilot】Figma MCP还原设计稿生成前端代码

这里写自定义目录标题 * Step1:让AI给你配置MCP * Step2:替换成自己的Figma密钥 * Step3:如何使用 Cursor+Figma MCP的教程已经很多了,由于我所在的公司采购的是GitHub Copilot,我研究了一下直接在vscode里利用GitHub Copilot接入Figma MCP进行设计稿还原代码,大获成功,这里分享我的步骤,希望能帮到你。 Step1:让AI给你配置MCP 在vscode中打开你的项目(我的例子是一个微信小程序),呼出github copilot对话框,模式选择Agent,模型建议Claude 3.7 Sonnet,提问: https://github.com/GLips/Figma-Context-MCP 如何配置能让你在vscode里使用这个mcp 之后跟着提示狂点下一步即可完成配置,如果有什么需要装的vscode插件它会自动帮你装,甚至自动生成了配置说明文档。 由于不能保证AI每次生成的答案都一致,这里附上我的运行结果作为参考,可以看到它在项目文件夹最外层建了一个.vscode文件夹,在sett

By Ne0inhk