Python AI入门:从Hello World到图像分类

Python AI入门:从Hello World到图像分类

一、Python AI的Hello World

1.1 环境搭建

首先,我们需要搭建Python AI的开发环境:

# 安装PyTorch pip install torch torchvision # 安装其他依赖 pip install numpy matplotlib 

1.2 第一个AI程序

让我们来编写一个最简单的AI程序 - 线性回归:

import torch import torch.nn as nn import numpy as np import matplotlib.pyplot as plt # 生成训练数据 x = torch.linspace(0,10,100).unsqueeze(1) y =2* x +1+ torch.randn(100,1)*0.5# 定义模型classLinearModel(nn.Module):def__init__(self):super(LinearModel, self).__init__() self.linear = nn.Linear(1,1)defforward(self, x):return self.linear(x)# 创建模型实例 model = LinearModel()# 定义损失函数和优化器 criterion = nn.MSELoss() optimizer = torch.optim.SGD(model.parameters(), lr=0.01)# 训练模型 epochs =100for epoch inrange(epochs):# 前向传播 outputs = model(x)# 计算损失 loss = criterion(outputs, y)# 反向传播 optimizer.zero_grad() loss.backward()# 更新参数 optimizer.step()if(epoch +1)%10==0:print(f'Epoch [{epoch+1}/{epochs}], Loss: {loss.item():.4f}')# 测试模型with torch.no_grad(): predicted = model(x)# 可视化结果 plt.scatter(x.numpy(), y.numpy(), label='Original data') plt.plot(x.numpy(), predicted.numpy(),'r-', label='Fitted line') plt.legend() plt.show()print("Hello World! AI模型训练完成")

二、从线性回归到神经网络

2.1 神经网络基础

线性回归是最简单的AI模型,而神经网络则是更复杂的模型。让我们来构建一个简单的神经网络:

import torch import torch.nn as nn import torch.optim as optim # 生成非线性数据 x = torch.linspace(-1,1,100).unsqueeze(1) y = x.pow(2)+0.2* torch.randn(100,1)# 定义神经网络模型classNeuralNet(nn.Module):def__init__(self):super(NeuralNet, self).__init__() self.hidden = nn.Linear(1,10) self.output = nn.Linear(10,1)defforward(self, x): x = torch.relu(self.hidden(x)) x = self.output(x)return x # 创建模型实例 model = NeuralNet()# 定义损失函数和优化器 criterion = nn.MSELoss() optimizer = optim.SGD(model.parameters(), lr=0.01)# 训练模型 epochs =1000for epoch inrange(epochs): outputs = model(x) loss = criterion(outputs, y) optimizer.zero_grad() loss.backward() optimizer.step()if(epoch +1)%100==0:print(f'Epoch [{epoch+1}/{epochs}], Loss: {loss.item():.4f}')# 测试模型with torch.no_grad(): predicted = model(x)# 可视化结果import matplotlib.pyplot as plt plt.scatter(x.numpy(), y.numpy(), label='Original data') plt.plot(x.numpy(), predicted.numpy(),'r-', label='Neural network prediction') plt.legend() plt.show()

2.2 理解神经网络的工作原理

神经网络的基本原理是通过多层神经元的组合,学习数据中的复杂模式:

  1. 输入层:接收原始数据
  2. 隐藏层:提取数据特征
  3. 输出层:产生预测结果
  4. 激活函数:引入非线性,使网络能够学习复杂模式

三、图像分类入门

3.1 数据准备

我们将使用MNIST数据集进行图像分类:

import torch import torchvision import torchvision.transforms as transforms # 数据预处理 transform = transforms.Compose([ transforms.ToTensor(), transforms.Normalize((0.5,),(0.5,))])# 加载MNIST数据集 trainset = torchvision.datasets.MNIST(root='./data', train=True, download=True, transform=transform) trainloader = torch.utils.data.DataLoader(trainset, batch_size=64, shuffle=True) testset = torchvision.datasets.MNIST(root='./data', train=False, download=True, transform=transform) testloader = torch.utils.data.DataLoader(testset, batch_size=64, shuffle=False)# 查看数据import matplotlib.pyplot as plt import numpy as np # 函数:显示图像defimshow(img): img = img /2+0.5# 反归一化 npimg = img.numpy() plt.imshow(np.transpose(npimg,(1,2,0))) plt.show()# 获取一批训练数据 dataiter =iter(trainloader) images, labels =next(dataiter)# 显示图像 imshow(torchvision.utils.make_grid(images))print('标签:',' '.join(f'{labels[j]}'for j inrange(4)))

3.2 构建图像分类模型

现在我们来构建一个用于图像分类的卷积神经网络:

import torch.nn as nn import torch.nn.functional as F classNet(nn.Module):def__init__(self):super(Net, self).__init__()# 卷积层 self.conv1 = nn.Conv2d(1,32,3,1) self.conv2 = nn.Conv2d(32,64,3,1)# 池化层 self.pool = nn.MaxPool2d(2,2)# 全连接层 self.fc1 = nn.Linear(64*12*12,128) self.fc2 = nn.Linear(128,10)defforward(self, x): x = self.pool(F.relu(self.conv1(x))) x = self.pool(F.relu(self.conv2(x))) x = x.view(-1,64*12*12) x = F.relu(self.fc1(x)) x = self.fc2(x)return x # 创建模型实例 net = Net()print(net)

3.3 训练图像分类模型

import torch.optim as optim # 定义损失函数和优化器 criterion = nn.CrossEntropyLoss() optimizer = optim.SGD(net.parameters(), lr=0.001, momentum=0.9)# 训练模型 epochs =5for epoch inrange(epochs): running_loss =0.0for i, data inenumerate(trainloader,0):# 获取输入 inputs, labels = data # 清零梯度 optimizer.zero_grad()# 前向传播 outputs = net(inputs)# 计算损失 loss = criterion(outputs, labels)# 反向传播 loss.backward()# 更新参数 optimizer.step()# 统计损失 running_loss += loss.item()if i %100==99:print(f'[{epoch +1}, {i +1}] loss: {running_loss /100:.3f}') running_loss =0.0print('训练完成')

3.4 测试模型

# 测试模型 correct =0 total =0with torch.no_grad():for data in testloader: images, labels = data outputs = net(images) _, predicted = torch.max(outputs.data,1) total += labels.size(0) correct +=(predicted == labels).sum().item()print(f'测试准确率: {100* correct / total:.2f}%')# 查看预测结果 dataiter =iter(testloader) images, labels =next(dataiter)# 显示图像 imshow(torchvision.utils.make_grid(images))print('真实标签:',' '.join(f'{labels[j]}'for j inrange(4)))# 预测 outputs = net(images) _, predicted = torch.max(outputs,1)print('预测标签:',' '.join(f'{predicted[j]}'for j inrange(4)))

四、从Rust开发者角度的思考

4.1 与Rust的对比

作为一个Rust开发者,学习Python AI有以下感受:

  • 开发效率:Python的开发效率比Rust高,尤其是在AI开发中
  • 生态系统:Python的AI生态系统非常丰富,有大量成熟的库
  • 性能:Python的性能虽然不如Rust,但在AI开发中,PyTorch等库已经做了很多优化
  • 类型系统:Python的动态类型与Rust的静态类型有很大不同,需要适应

4.2 学习建议

对于Rust开发者学习Python AI,我有以下建议:

  • 利用系统思维:Rust的系统级编程经验有助于理解AI模型的底层实现
  • 注重代码质量:保持Rust的代码风格,写出清晰、可维护的Python代码
  • 实践项目:通过实际项目巩固学习成果
  • 跨语言学习:将Rust和Python结合起来,发挥各自的优势

五、总结

通过从Hello World到图像分类的学习,我已经初步掌握了Python AI的基本概念和使用方法。作为一个Rust开发者,我发现Python AI的学习过程既有挑战也有机遇。

挑战在于Python的动态类型和内存管理与Rust有很大不同,需要适应新的思维方式。机遇在于Python的AI生态系统非常丰富,开发效率高,能够快速实现AI模型。

Read more

Llama3-8B对话体验差?open-webui界面调优实战案例

Llama3-8B对话体验差?open-webui界面调优实战案例 1. 为什么Llama3-8B在open-webui里“不好用” 你是不是也遇到过这种情况:明明拉下了Meta-Llama-3-8B-Instruct的GPTQ-INT4镜像,显卡是RTX 3060,vllm也跑起来了,open-webui网页也打开了,可一输入问题,响应慢、回复短、上下文断连、甚至反复重复同一句话?不是模型不行,而是默认配置没对上——就像给跑车装了自行车刹车片。 Llama3-8B本身素质过硬:80亿参数、原生8k上下文、英语指令遵循能力对标GPT-3.5、MMLU 68+、HumanEval 45+,单卡3060就能跑。但它对对话系统层的调度逻辑非常敏感。open-webui作为前端界面,默认采用的是通用型API调用策略,而没针对Llama3系列的tokenizer行为、stop token设计、streaming节奏做适配。结果就是: * 模型已生成完,界面还在等“结束信号”; * 多轮对话中,system prompt被意外截断或覆盖; * 中文输入时,因token边界识别不准,

[大模型实战 02] 图形化的大模型交互: Open WebUI部署指南

[大模型实战 02] 图形化的大模型交互: Open WebUI部署指南

核心摘要 (TL;DR)目标:为本地的 Ollama 模型穿上漂亮的图形化界面 (GUI)。工具:Docker + Open WebUI (社区最活跃的开源 WebUI)。核心功能:媲美 ChatGPT 的对话界面、本地知识库 (RAG)、自定义角色 (Agent)。 相信各位友人在上一篇文章中,已经学会了如何用ollama在终端中运行Qwen模型。命令行工具有时候会感觉有点过于Geek,黑洞洞的命令窗口和冷冰冰的滚动的文字的技术感是有的,但是对于如果咱们想把大模型展示给其他朋友,或者自己想日常使用,那这时候咱们就需要换一个更友好,更光鲜的交互方式。 这也是这篇博文想带大家解决的问题:用10分钟时间,搭建一个功能媲美ChatGPT的私有化网页页面,并且连接咱们的模型 Open WebUI就是我们完成这个目标的利器,其也是目前社区最活跃,功能最强大的开源大模型交互界面。 01. 模型服务准备 在开始之前,因为要接入咱们的Ollama模型,所以我们要确认我们的Ollama服务运行起来了。 可以通过在终端输入curl http://localhost:5656命令去验证其是否正

web酒店客房管理系统信息管理系统源码-SpringBoot后端+Vue前端+MySQL【可直接运行】

web酒店客房管理系统信息管理系统源码-SpringBoot后端+Vue前端+MySQL【可直接运行】

摘要 随着旅游业的快速发展和酒店行业的不断扩张,传统的酒店客房管理方式已难以满足现代化管理的需求。人工操作效率低下、信息易丢失、管理流程繁琐等问题日益凸显,亟需一套高效、智能的酒店客房管理系统来提升运营效率和服务质量。数字化管理不仅能减少人力成本,还能通过数据分析优化客房资源配置,提升客户满意度。因此,开发一款基于SpringBoot后端、Vue前端和MySQL数据库的酒店客房管理系统具有重要的现实意义。关键词:酒店管理、数字化、SpringBoot、Vue、MySQL。 本系统采用前后端分离架构,后端基于SpringBoot框架实现高效的数据处理和业务逻辑,前端使用Vue.js构建动态交互界面,数据库采用MySQL存储数据。系统功能包括客房信息管理、客户预订管理、订单结算、员工权限管理等模块,支持多角色登录和权限控制。通过响应式设计和RESTful API接口,系统实现了数据的实时更新和高效交互。系统源码可直接运行,便于二次开发和功能扩展,为酒店行业提供了一套完整的数字化解决方案。关键词:前后端分离、权限管理、RESTful API、实时更新、二次开发。 数据表 客房信息数据

前端仔狂喜!我用这个开源神器,3分钟给项目配上API后台!

前端仔狂喜!我用这个开源神器,3分钟给项目配上API后台!

作为一名前端开发,我最怕听到的话就是:“这个页面内容需要后台可配”。这意味着无尽的沟通、漫长的等待,甚至还得自己去学写后端接口。最近,我终于找到了一个能将我从这种痛苦中解放出来的神器——Strapi。 什么是Strapi? Strapi 是一个开源的无头(Headless)CMS,GitHub上狂揽 60.5k Star。简单说,它能让你通过点击鼠标的可视化界面,快速创建出结构化的内容模型,并自动生成配套的 RESTful API 或 GraphQL。你不需要写一行后端代码,就能拥有一个功能强大的、可随时调用的数据后台。 传统部署的“噩梦” 想法很美好,但我尝试手动部署 Strapi 时,才发现这根本不是给前端玩的: * 环境依赖复杂:首先你得有个 Node.js 环境,还得配个正经的数据库,比如 PostgreSQL 或 MySQL,光是数据库的安装和配置就够我喝一壶的。 * 配置繁琐:你需要手动创建数据库、配置环境变量,