非科班转码者的AI学习路径:从0到1

非科班转码者的AI学习路径:从0到1

前言

大家好,我是第一程序员(名字大,人很菜)。作为一个非科班转码、正在学习Rust的萌新,最近我开始学习AI。今天我想分享一下我作为非科班转码者的AI学习路径,希望能帮助到和我一样的同学。

一、非科班转码者学习AI的挑战

1.1 基础薄弱

作为非科班转码者,学习AI面临以下挑战:

  • 数学基础:AI涉及线性代数、微积分、概率论等数学知识
  • 编程基础:需要掌握Python等编程语言
  • 计算机基础:需要了解计算机系统、数据结构等基础知识
  • 领域知识:需要了解AI的基本概念和术语

1.2 学习资源选择

市场上的AI学习资源琳琅满目,如何选择适合自己的资源是一个挑战:

  • 入门门槛:有些资源过于理论化,难以理解
  • 实践机会:缺乏实际项目经验
  • 学习路径:不知道从哪里开始,如何进阶

二、从0到1的AI学习路径

2.1 第一阶段:基础准备(1-2个月)

学习内容:

  • Python基础:学习Python语法、数据结构、函数等
  • 数学基础:复习线性代数、微积分、概率论等基础知识
  • 编程实践:完成一些简单的Python项目

学习资源:

  • Python教程:《Python编程:从入门到实践》
  • 数学基础:《机器学习的数学》
  • 在线课程:Coursera上的Python课程

实践项目:

  • 实现一个简单的待办事项应用
  • 编写一个数据可视化脚本

2.2 第二阶段:AI基础(2-3个月)

学习内容:

  • 机器学习基础:了解监督学习、无监督学习等基本概念
  • 深度学习基础:了解神经网络的基本原理
  • 框架学习:学习PyTorch或TensorFlow

学习资源:

  • 机器学习:《机器学习实战》
  • 深度学习:《深度学习入门》
  • 框架教程:PyTorch官方文档

实践项目:

  • 实现线性回归模型
  • 实现简单的神经网络

2.3 第三阶段:进阶学习(3-4个月)

学习内容:

  • 高级模型:学习CNN、RNN、Transformer等高级模型
  • 模型训练:学习模型训练、调优、部署等
  • 领域应用:选择一个领域(如计算机视觉、自然语言处理)深入学习

学习资源:

  • 高级模型:《深度学习》(花书)
  • 模型训练:《动手学深度学习》
  • 领域应用:相关领域的专业书籍

实践项目:

  • 图像分类模型
  • 文本分类模型
  • 情感分析模型

2.4 第四阶段:实战应用(2-3个月)

学习内容:

  • 项目实战:完成一个完整的AI项目
  • 模型部署:学习模型部署和上线
  • 性能优化:学习模型性能优化

学习资源:

  • 项目实战:GitHub上的开源项目
  • 模型部署:相关框架的部署文档
  • 性能优化:相关技术博客

实践项目:

  • 开发一个AI应用
  • 部署模型到云端
  • 优化模型性能

三、学习资源推荐

3.1 在线课程

  • Coursera:Andrew Ng的机器学习课程
  • edX:MIT的人工智能课程
  • Udacity:AI纳米学位
  • Fast.ai:实用深度学习课程

3.2 书籍

  • 入门级
    • 《Python编程:从入门到实践》
    • 《机器学习的数学》
    • 《深度学习入门:基于Python的理论与实现》
  • 进阶级
    • 《机器学习实战》
    • 《深度学习》(花书)
    • 《动手学深度学习》
  • 专业级
    • 《模式识别与机器学习》
    • 《统计学习方法》
    • 《自然语言处理实战》

3.3 在线资源

  • 博客
    • ZEEKLOG AI专栏
    • Medium上的AI文章
    • Towards Data Science
  • 视频
    • B站上的AI教程
    • YouTube上的AI频道
    • 技术 conference 视频
  • 社区
    • GitHub
    • Stack Overflow
    • Reddit的AI社区

四、实践项目建议

4.1 入门级项目

  • 线性回归:预测房价、股票价格等
  • 分类问题:垃圾邮件分类、情感分析等
  • 聚类问题:客户分群、异常检测等

4.2 进阶级项目

  • 计算机视觉
    • 图像分类
    • 目标检测
    • 图像分割
  • 自然语言处理
    • 文本分类
    • 命名实体识别
    • 机器翻译
  • 强化学习
    • 游戏AI
    • 机器人控制
    • 推荐系统

4.3 实战项目

  • 智能助手:开发一个基于AI的智能助手
  • 图像识别应用:开发一个图像识别应用
  • 文本生成工具:开发一个文本生成工具
  • 推荐系统:开发一个个性化推荐系统

五、学习心态与方法

5.1 学习心态

  • 保持耐心:AI学习是一个长期的过程,不要期望一蹴而就
  • 拥抱挑战:遇到困难时,不要轻易放弃
  • 持续学习:AI技术发展迅速,需要不断更新知识
  • 实践为主:理论学习重要,但实践更重要

5.2 学习方法

  • 项目驱动:通过项目来学习,这样可以更深入地理解概念
  • 循序渐进:从基础开始,逐步进阶
  • 多渠道学习:结合书籍、课程、博客等多种资源
  • 社区参与:积极参与AI社区,向他人学习

5.3 时间管理

  • 制定计划:制定合理的学习计划,明确学习目标
  • 时间分配:每天保持固定的学习时间
  • 定期回顾:定期回顾所学内容,巩固知识
  • 避免拖延:保持学习的连续性,避免拖延

六、非科班转码者的优势

6.1 学习态度

  • 学习动力强:明确的目标和强烈的学习欲望
  • 可塑性强:没有传统思维的束缚,容易接受新事物
  • 珍惜机会:更加珍惜学习和实践的机会

6.2 跨领域优势

  • 多元化思维:非科班背景带来不同的思维方式
  • 解决问题的独特视角:能够从不同角度思考问题
  • 行业知识:原专业的知识可能在某些AI应用领域有优势

6.3 成长潜力

  • 学习能力:通过转码学习,培养了强大的学习能力
  • 适应能力:能够快速适应新环境和新技术
  • 抗压能力:转码过程中培养了抗压能力

七、总结

作为一个非科班转码者,学习AI确实面临一些挑战,但只要制定合理的学习计划,保持学习的热情,就一定能够掌握AI技术。

我的学习路径是:从Python基础和数学基础开始,然后学习AI基础理论和框架,接着深入学习高级模型和领域应用,最后通过实战项目巩固所学知识。

保持学习,保持输出。虽然现在我还是个菜鸡,但我相信只要坚持,总有一天能成为真正的「第一程序员」!

Read more

OpenClaw之Memory配置成本地模式,Ubuntu+CUDA+cuDNN+llama.cpp

文章目录 * 背景:Memory不生效的问题 * OpenClaw的Memory配置 * Ubuntu24.04安装CUDA和cuDNN * 编译llama.cpp * 验证方案1: * 验证方案2:下载并运行Llama-2 7B模型 * 安装node-llama-cpp * 验证Memory * sqlite-vec unavailable * 踩过的坑 * 安装node-llama-cpp的一些提示 * 安装node-llama-cpp的前置条件 * Using `node-llama-cpp` With Vulkan 承接上文:Windows11基于WSL2首次运行Openclaw,并对接飞书应用,我已经在电脑上安装了OpenClaw,接下来解决Memory问题。走了很多弯路,下面主要讲我总结的正确的安装过程。 总结来说:针对Memory不生效的问题,又不想用OpenAI或Gemini,或者只想单纯的节省token,可以按照如下的方式,设置为local模式: * 修改openclaw.json配置 * 安装CUDA和cu

论文阅读详细版K-RagRec:Knowledge Graph Retrieval-Augmented Generation for LLM-based Recommendation

摘要(Abstract) 翻译 推荐系统在我们的日常生活中变得越来越重要,有助于缓解各类面向用户的在线服务中的信息过载问题。大语言模型(LLMs)的出现取得了显著成就,展现出其推动下一代推荐系统发展的潜力。尽管取得了这些进展,基于大语言模型的推荐系统仍面临源于其模型架构的固有局限性,尤其是幻觉问题(生成虚假信息)以及缺乏最新知识和领域特定知识的问题。近年来,检索增强生成(RAG)技术受到了广泛关注,它通过利用外部知识源来增强大语言模型的理解和生成能力,从而解决这些局限性。然而,传统的 RAG 方法往往会引入噪声,并且忽略了知识中的结构化关系,这限制了它们在基于大语言模型推荐系统中的效果。为了解决这些问题,我们提出从知识图谱中检索高质量、最新的结构化信息,以增强推荐效果。具体而言,我们设计了一个检索增强框架,名为 K-RagRec,该框架通过整合外部知识图谱的结构化信息,助力推荐生成过程。我们进行了大量实验,验证了所提方法的有效性。 讲解 * 摘要就是论文的 “浓缩版故事”,核心逻辑: 1. 背景:推荐系统很重要,大语言模型能做推荐,但有两个大问题 ——“瞎编(幻觉)”

【实战干货】消费级显卡的逆袭:Stable Diffusion 3.5 FP8 模型部署与性能优化全指南

【实战干货】消费级显卡的逆袭:Stable Diffusion 3.5 FP8 模型部署与性能优化全指南

🚀 前言:SD3.5 虽好,显存却成了拦路虎? Stability AI 发布的 Stable Diffusion 3.5 (SD3.5) 系列模型,特别是 SD3.5 Large (8B 参数),在图像质量、提示词依从性(Prompt Adherence)和文字生成能力上都达到了开源模型的顶峰。然而,随之而来的是巨大的显存开销。 在传统的 BF16/FP16 精度下,运行 SD3.5 Large 加上庞大的 T5 文本编码器,往往需要 24GB 甚至更高的显存,这让持有 8GB/12GB 显存的广大开发者望洋兴叹。 破局者出现了:FP8(8位浮点)量化。

基于Jetson Nano与YOLOv5s的无人机道路抛洒物实时检测系统【附数据集+代码】

1. 为什么需要无人机道路抛洒物检测系统 想象一下你正开车行驶在高速公路上,突然前方出现一个不明物体——可能是掉落的纸箱、滚动的矿泉水瓶,甚至是散落的碎石。这些看似不起眼的小东西,在高速行驶状态下可能酿成大祸。传统的人工巡检方式效率低下,往往需要工作人员冒着危险在车流中穿行,而且很难做到全天候监控。这就是为什么我们需要一个智能化的解决方案。 我在实际测试中发现,使用无人机搭载视觉检测系统可以完美解决这个问题。无人机能够从高空俯拍道路,避开地面交通干扰;边缘计算设备Jetson Nano则让实时分析成为可能;而YOLOv5s算法就像给无人机装上了"火眼金睛",能瞬间识别出那些危险的抛洒物。这三者的结合,相当于给道路安全装上了全天候的智能哨兵。 2. 硬件选型与系统搭建 2.1 Jetson Nano的边缘计算优势 Jetson Nano这块小板子真是让我又爱又恨。爱的是它128核Maxwell GPU带来的强大算力,恨的是在资源有限的情况下做优化确实需要费些心思。不过经过多次调试,我发现它确实是无人机视觉处理的绝配——功耗仅5-10W,重量不到100克,却能流畅运行YOLOv