机器也能写诗?AIGC诗歌创作实战指南(附踩坑避雷手册)

机器也能写诗?AIGC诗歌创作实战指南(附踩坑避雷手册)

机器也能写诗?AIGC诗歌创作实战指南(附踩坑避雷手册)

机器也能写诗?AIGC诗歌创作实战指南(附踩坑避雷手册)

“哥们,我昨晚让AI给我前女友写了首七言绝句,她看完把我微信备注改成了‘赛博李白’。”
—— 某个凌晨三点还在调参的前端群友

当AI开始押韵,人类诗人慌不慌?

先别急着把海子诗集拿去垫桌脚。
AI写诗这事儿,说玄乎也玄乎,说土嗨也土嗨。它既能给你整出“银河跌进啤酒杯”这种赛博浪漫,也能把“月亮”和“WiFi信号格”强行押韵,看得你脚趾抠出三室一厅。
但别怕,今天咱们不聊虚的,直接上手——从“让模型张嘴”到“前端页面能跑能摇”,一条龙给你整明白。
看完你也能在群里甩个链接:“兄弟们,输入关键词秒出七律,流量密码拿去。”

(温馨提示:本文代码全部可抄,抄完报错算我输。)


AIGC写诗到底是个啥玩意儿?——先扒掉技术的底裤

说白了,就是让大模型背完《全唐诗》+《现代诗三百首》之后,照着你的prompt开始“接龙”。
核心公式就一句:
“给定上文,预测下一个token。”
别被“token”吓到,你就把它当成“下一个汉字”或者“下一个拼音片段”。模型每天干的事,就是玩一场超大规模的“成语接龙”,只是接的是人类几千年的酸爽情诗。

中文诗的特殊debuff

  1. 押韵:英文只需要“end with -ing”,中文得整《平水韵》,不然“花”和“蛙”强行押韵,读起来像相声。
  2. 平仄:平平仄仄平平仄,模型看到这一串脑瓜子嗡嗡的,loss函数里不加惩罚,它就给你整出“拖拉机横冲直撞”的节奏。
  3. 意境:AI最擅长“把牛说成是牛”,但它很难明白“牛”也可以是“回不去的田园”。

主流模型怎么“学会”写诗?——Transformer不是变形金刚,但确实会变

训练数据黑幕

  • 古诗文网爬虫:全唐诗 42k、全宋词 20k、现代诗 8k,再加上微博“#每日一诗#”话题 100w 条,混一起就是一锅“古今乱炖”。
  • 清洗规则:去掉“转发”“//”这些杂质,再把“啊”“哦”这类语气词统一映射到<EMO> token,防止模型“啊哦”个不停。
  • 数据增强:把一句“春风又绿江南岸”随机替换成“秋风又黄江北岸”,让模型知道“绿”不是唯一答案,押韵别死磕。

loss函数里的小心机

# 伪代码:在交叉熵上加押韵惩罚defrhyme_penalty(logits, target_tokens, rhyme_dict):""" logits: 模型预测的下一个token分布 target_tokens: 正确答案 rhyme_dict: 自己整的《平水韵》映射表 """ penalty =0if target_tokens[-1]in rhyme_dict:# 最后一个字需要押韵 rhyme_class = rhyme_dict[target_tokens[-1]]for token_id, logit inenumerate(logits):if idx2token[token_id]in rhyme_dict:if rhyme_dict[idx2token[token_id]]!= rhyme_class:# 不押韵就狠狠扣分 logits[token_id]-=5.0return logits 

就这么简单粗暴,模型被“扣分”扣多了,慢慢学会“花/家/涯”一家亲。


实操上手:三行代码让AI给你写情诗

别急着租GPU,先用Hugging Face上白嫖的Chinese-Poetry-GPT2爽一把。

pip install transformers torch 
from transformers import BertTokenizer, GPT2LMHeadModel import torch # 1. 模型&tokenizer一步到位 tokenizer = BertTokenizer.from_pretrained("ethan-yi/Chinese-Poetry-GPT2") model = GPT2LMHeadModel.from_pretrained("ethan-yi/Chinese-Poetry-GPT2") model.eval()# 2. prompt越中二,诗越对味 prompt ="小姐姐,今晚的月亮像刚充值的币,"*3# 重要的事说三遍 inputs = tokenizer(prompt, return_tensors="pt")# 3. 生成——temperature=0.8 赛博微醺感with torch.no_grad(): outputs = model.generate(**inputs, max_length=128, do_sample=True, temperature=0.8, top_p=0.9, repetition_penalty=1.2) poem = tokenizer.decode(outputs[0], skip_special_tokens=True)print(poem)

跑出来的效果可能是:

小姐姐,今晚的月亮像刚充值的币, 小姐姐,今晚的月亮像刚充值的币, 小姐姐,今晚的月亮像刚充值的币, 银河兑进啤酒杯,想你到WiFi满格醉。 

看到没,AI已经把“想你”和“WiFi”强行押韵,土味赛博情诗拿捏了。
想再古风?把prompt换成“春风十里”+“扬州”+“豆蔻”,它立刻给你整出“二月卖新酒”的味儿。


你以为AI写诗就是复制粘贴?——错,它背后全是套路

Token预测视角下的“创作”

模型其实没“创作”,它只是疯狂算概率:
“春风又绿江南岸”后面,最高概率的是“明月何时照我还”,于是它就“抄”了。
但如果把temperature拉到1.5,概率分布被搅成一锅粥,它就可能给你整出“春风又绿江南岸,量子纠缠般的思念”。
所以,temperature=0.5 是李白,temperature=1.5 是喝醉的李白,temperature=2.0 是李白掉进了搅拌机。

前端视角看“生成”

咱们写网页,不可能让用户在命令行里python poem.py
把模型封装成接口,最省事的是直接transformers+fastapi

# api.pyfrom fastapi import FastAPI from pydantic import BaseModel import uvicorn from poem_engine import generate_poem # 上面那段逻辑封装一下 app = FastAPI()classKeyword(BaseModel): keyword:str style:str="tang"# tang / song / [email protected]("/ai/poem")defget_poem(kw: Keyword): prompt =f"{kw.style}风格,关键词:{kw.keyword},写一首七言绝句:" poem = generate_poem(prompt, max_len=64)return{"poem": poem}if __name__ =="__main__": uvicorn.run(app, host="0.0.0.0", port=8000)

前端小哥直接fetch('/ai/poem', {method:'POST', body:JSON.stringify({keyword:'火锅'})})
秒回:

火锅煮月亮,红油染星光。 毛肚是归舟,鸭肠到故乡。 

优点吹爆,缺点扎心——AI诗歌的AB面

A面:快、多、不要版权费

  • 快:GPU 上跑 1 秒 20 首,老板让你写 100 首藏头诗,3 分钟交稿。
  • 多:想写 1000 首关于“孤独”的诗?AI 不emo,它写到显卡冒烟都不累。
  • 版权:它“抄袭”的是概率,不是字面值,法律上算“原创”,甲方听了直点头。

B面:机器味一眼识破

  • 情感假:它可以把“哭”字用 20 种修辞堆砌,但它没真的哭过。
  • 文化错:让 AI 写端午,它可能冒出“屈原吃粽子看龙舟比赛”——屈原:???
  • 创新边界:AI 最擅长“缝合”,但很难“跳出盒子”。你让它写“新冠情诗”,它只会“口罩遮住你的脸,却遮不住我对你的思念”,听着像十年前的QQ空间。

前端怎么把AI诗歌玩出花?——不止调接口那么简单

1. 古风UI + 毛笔字动画

<!-- Vue3 + Tailwind 快速撸一个“赛博文房四宝” --> <template> <div> <div> <h1>AI 赛博诗塾</h1> <!-- 输入框 --> <input v-model="keyword" @keyup.enter="getPoem" placeholder="输入关键词,比如‘火锅’" /> <!-- 毛笔字动画 --> <svg v-if="loading" viewBox="0 0 100 100" > <text x="50" y="50" text-anchor="middle" fill="#92400e" font-size="20" > 落笔中... </text> </svg> <!-- 诗句 --> <div v-if="poem" > <p v-for="line in poem.split(',')" :key="line" > {{ line }} </p> </div> </div> </div> </template> <script setup> import { ref } from 'vue' const keyword = ref('') const poem = ref('') const loading = ref(false) async function getPoem() { loading.value = true const res = await fetch('http://localhost:8000/ai/poem', { method: 'POST', headers: { 'Content-Type': 'application/json' }, body: JSON.stringify({ keyword: keyword.value }) }) const data = await res.json() poem.value = data.poem loading.value = false } </script> 

2. AI vs 人类 擂台赛

思路:

  • 同一关键词,AI 先写一首,匿名展示;
  • 再拉群友写一首,匿名展示;
  • 用户盲投票,点选“哪首更像人”。
  • 最后揭晓,AI 胜率超过 60% 就可以截图吹半年。

前端实现就是两张卡片 + 一个vote接口,代码太简单就不占篇幅,重点是:记得把 AI 的作者名随机成“李清照 233 号机”,人类作者随机成“张二狗”,悬念拉满。


翻车现场复盘:为什么我的AI写出了“火锅煮月亮”?

1. 乱码——tokenizer背锅

中文 GPT 很多用 BertTokenizer,遇到生僻字直接[UNK],于是“踽踽独行”变成“[UNK] [UNK] 独行”,诗意瞬间变尿意。
解决:提前把《新华字典》+《康熙字典》扔给 tokenizer 做add_tokens,别让 [UNK] 毁了“踽踽”。

2. 跑题——prompt太飘

你输入“孤独”,模型却写“火锅”,大概率是 prompt 里带了“火锅”的上下文。
解决:prompt 用模板锁死:

template ="七言绝句,主题:孤独,禁止出现食物!首句必须包含‘雨’字:"

3. 强行押韵——“月亮”/“WiFi”惨案

temperature 太高,模型开始“乱押”。
解决:

  • 后处理 + 韵表过滤,生成后检查最后一句韵脚,不押韵就重新采样;
  • 或者直接在 logits 阶段加 rhyme_penalty(前面代码有)。

4. 文化常识错误——屈原“被”吃粽子

训练数据里“屈原”“粽子”“龙舟”高频共现,模型直接脑补“屈原吃粽子”。
解决:

  • prompt 加“历史事实:屈原投江,当时尚无粽子”;
  • 或者用知识图谱做过滤,生成后检查实体关系,错了就回炉。

老司机私藏技巧:让AI写出“人味”

1. 情绪标签法

别只喂关键词,先喂“情绪向量”:

emotion ="孤独+雨夜+80年代老磁带" prompt =f"{emotion},写一段现代诗,不超过50字:"

模型会把“磁带”转录成“A面是我,B面是你”,瞬间有那味儿。

2. 散文→诗压缩

先让模型写一段 100 字散文,再下一条指令:“把上文压缩成 28 字七言绝句,保留‘磁带’意象”。
两步走,比一步直接生成诗更稳。

3. 人类半截诗续写

half ="我把远方的酒喝成故乡的月光," prompt =f"续写下半段,保持对仗与押韵,韵脚‘ang’:\n{half}"

AI 续:

却把近处的你念成枕边的霜。 

真假难辨,群里妹子直呼“这是哪个宝藏男孩写的?”


彩蛋:给老板写藏头诗保命指南

老板叫“张总英明神武”,藏头诗要求:张总英明神武,每句开头依次嵌入。
直接上模板:

heads =["张","总","英","明","神","武"] prompt ="七律,藏头诗,每句首字依次:{},风格豪放,拍老板马屁,但别太明显:"\ .format(''.join(heads))

生成效果:

张帆远航破浪行, 总把星辰作指针。 英气如潮吞日月, 明眸似电划云层。 神采飞扬千里路, 武略深藏万籁音。 

老板一高兴,给你绩效多打 0.5,年底还能多抢两箱月饼。
但注意:千万别让 AI 写“裁员”主题,它可能回你:

沁园春·优化 大厂风云,千里裁员,万里波动。 望楼宇内外,唯余惶惶;工位上下,顿失涛涛。 

HR 看了直冒冷汗,连服务器都想给你拔了。


结语(微信群语音转文字版)

“兄弟们,今天这把 AI 写诗就聊到这儿。代码都甩给你们了,回头谁把‘火锅煮月亮’做成 NFT 卖了,记得 V 我 50。
下次想整啥?AI 写 rap 还是 AI 写情书?在群里 @ 我,我去给它调参调到它亲妈都不认识。”

在这里插入图片描述

Read more

LLaMA Factory训练可视化管理:Loss曲线解析与性能优化

作者:吴业亮 博客:wuyeliang.blog.ZEEKLOG.net 在日常的大模型微调工作中,你是否经常遇到这些困扰:训练过程像个黑盒子,不知道模型到底学到了什么;损失曲线突然异常,却找不到问题根源;多轮实验参数混乱,无法有效对比效果? 今天我们就来全面介绍LLaMA Factory这一强大的大模型微调框架,重点讲解如何在Ubuntu 22.04系统上使用四种可视化工具监控训练过程,让你的模型训练透明可控、调优有据。 一、LLaMA Factory训练监控体系概览 LLaMA Factory通过模块化设计实现了全面的指标监控功能,主要覆盖训练稳定性、模型性能和资源利用三大维度。系统默认在src/llamafactory/train/sft/metric.py中实现基础评估逻辑,同时支持通过配置文件扩展自定义指标。 核心监控指标包括: * 训练稳定性:损失值、梯度范数、学习率变化 * 模型性能:准确率、困惑度、ROUGE分数 * 文本质量:生成内容的流畅性和相关性 * 资源利用:GPU内存占用、训练速度

新手必看:FLUX.1-dev超稳定AI绘画系统使用技巧

新手必看:FLUX.1-dev超稳定AI绘画系统使用技巧 你是否试过刚输入提示词,点击生成,屏幕就弹出“CUDA Out of Memory”?是否在深夜赶图时,模型突然崩溃,前功尽弃?是否被SDXL的光影生硬、文字模糊、构图呆板反复劝退?别再折腾了——这次,我们不是在调参,而是在用一套真正“开箱即稳、所见即得”的AI绘画系统。 这就是 FLUX.1-dev旗舰版镜像:它不靠堆显存硬扛,不靠降精度妥协,而是用一套经过24G显存严苛验证的智能卸载机制,把120亿参数的影院级大模型,稳稳装进你的RTX 4090D里。没有报错,没有中断,没有“再试一次”,只有每一次点击后,安静加载、精准成像、自动归档的确定感。 本文不讲论文、不列公式、不谈架构。只说你打开WebUI后,第一分钟该做什么、第三步容易踩什么坑、怎么让一张图从“还行”变成“惊艳”

ComfyUI是什么?当AI绘画遇上“连连看”,专业创作原来可以如此简单!

目录 一、开篇明义:什么是ComfyUI? 二、核心设计哲学:为什么选择节点式工作流? 1. 完全透明化的生成过程 2. 可保存、可分享、可复用的工作流 3. 精细到极致的参数控制 三、ComfyUI技术架构剖析 1.核心组件详解 2.性能优势解析 四、实际应用场景:谁需要ComfyUI? 1. AI艺术创作者 2. 产品设计与原型开发 3. 教育与研究 4. 商业内容生产 用流程图玩转Stable Diffusion,揭开AI绘画的神秘面纱 一、开篇明义:什么是ComfyUI? 如果你曾对AI绘画感到好奇,或已经尝试过Midjourney、Stable Diffusion WebUI等工具,那么ComfyUI将为你打开一扇全新的门。这不是又一个“输入文字出图片”的简单工具,而是一个可视化节点编辑器,专门为Stable Diffusion设计。

【优质开源项目】AIGC开源推荐-全球情报监控平台worldmonitor

【优质开源项目】AIGC开源推荐-全球情报监控平台worldmonitor

1.概述 World Monitor 是一个开源的实时情报/监测仪表盘,聚合多类数据源(新闻、地理/卫星、航运/空中、财经、威胁情报等),提供交互式地理视图、AI 摘要、事件聚合与报警,支持 Web / PWA / Tauri 桌面三种运行方式,并可通过变体(WORLD / TECH / FINANCE)切换功能集。 2. 总体技术架构(分层视角) 客户端层(Browser / PWA / Tauri desktop) * • React + TypeScript + Vite 构建。 * • 地图/可视化:deck.gl(WebGL 3D globe)、MapLibre GL、D3