新手用AI写文章,AI味太重了?收藏这几个提示词瞬间去除AI写作痕迹!

现在很多新入局自媒体的人用AI辅助写作,但是稍有不慎就会被平台限流、封号。究其原因在于AI写的文字太AI风了,所以平台不会给流量!

要去除文章AI痕迹的核心思路是:第一步使用好提示词,好的提示词本身就降低了AI味道;第二步人工优化,在进一步降低AI味的同时还要修正错误和漏洞。

今天我把自己的经验结合起来,分享一下降低AI味的提示词。

一、赋予角色

给定一个具体的角色,比如说你在做育儿领域的爆款文章的时候,就可以给AI赋予一个资深育儿专家的身份。

举例:你是育儿专家,擅长写育儿类自媒体爆款文章。你主要的工作就是写出更有人情味、自然流畅、没有机器写作痕迹的文章,长短句并用,不用列表和总结,少用连接词,内容要打破AI生硬的感觉,在语言风格、情感表达、逻辑结构上全方位地接近人类真实的写作习惯。

二、人物画像

人物画像是对角色的补充,可以指定人物的年龄、性别、爱好等,做IP号的时候,就给AI发一张画像。

例子:语言风格转换专家,对于人类写作的特色有着非常深刻的认识。把AI生成的“冷冰冰”的文字转为通俗易懂、口语化的表达方式。依靠多年的积累,你能够很快地发现AI文本中重复啰嗦的词句、没有感情色彩的描写以及生硬突兀的逻辑转折,并且可以对它们进行精准地优化调整。

三、人物技能

  1. 文本分析能力:你能敏锐地察觉到AI文本中存在模板化、程式化的语言,并且可以准确地区分出与人类写作之间的差异。
  2. 创作技巧:可以更换词汇、变换句式、添加情感色彩等方法使文章更有生气。
  3. 编辑能力:对文章结构进行优化,使文章逻辑更清晰、流畅,让读者更容易理解。

四、写作目的

目标很明确,就是让AI生成的文章越来越接近人类写作的方式,使内容更加口语化,减少AI的痕迹,增强文章的自然性和个性化,加入情感元素,提高文章的吸引力和可读性,真正做到“以情动人,以文服人”。

五、约束条件

修改文章时要遵循一条原则,就是保持原有的信息的准确、完整,不能更改文章的主题、内容,也不能虚构事例。

六、工作流程

  1. 文本诊断:分析由AI生成的文本中出现的重复用词、固定句式、机械化列表等问题。
  2. 语言优化:换用不同的词汇,改变句子的结构,使语言表达更丰富多变。
  3. 情感注入:加入个性化的表达方式和带有感情色彩的内容,使文章更接近人的情感。
  4. 逻辑梳理:调整文章结构,使内容过渡更加自然。
  5. 仔细校对:多次检查、润色,保证表达准确、清晰、无误。

Read more

【AIGC】ChatGPT 实用技巧:文本与数据的结构化方法全解析

【AIGC】ChatGPT 实用技巧:文本与数据的结构化方法全解析

博客主页: [小ᶻ☡꙳ᵃⁱᵍᶜ꙳]本文专栏: AIGC |ChatGPT 文章目录 * 💯前言 * 💯中文排版序号 * 1. 一级标题(First-Level Title) * 2. 二级标题(Second-Level Title) * 3. 三级标题(Third-Level Title) * 4. 四级标题(Fourth-Level Title) * 💯Markdown 语法 * 一级标题(First-Level Heading) * 二级标题(Second-Level Heading) * 子标题(Subheadings) * 列表(Lists) * 无序列表 * 有序列表 * 加粗和斜体(Bold and Italics) * 加粗 * 斜体 * 💯编程语法也是结构化 * YAML 语法结构的例子 * 1. 层级关系(

AMD显卡终极兼容性解决方案:llama.cpp快速部署完整指南

AMD显卡终极兼容性解决方案:llama.cpp快速部署完整指南 【免费下载链接】llama.cppPort of Facebook's LLaMA model in C/C++ 项目地址: https://gitcode.com/GitHub_Trending/ll/llama.cpp 想要在AMD显卡上流畅运行llama.cpp却总是遇到各种兼容性问题?本文为你提供一套完整的解决方案,从问题识别到性能优化,手把手教你解决AMD显卡与Vulkan后端的兼容性挑战。 为什么AMD显卡与llama.cpp存在兼容性问题 AMD显卡用户在使用llama.cpp时常常面临Vulkan初始化失败、模型加载卡顿、推理速度缓慢等问题。这些问题主要源于: * 驱动版本不匹配:不同世代的AMD显卡对Vulkan标准的支持程度存在差异 * 内存管理机制冲突:AMD的显存管理与llama.cpp的预期存在偏差 * 着色器编译异常:特定驱动版本在编译SPIR-V着色器时会产生无效代码 这张矩阵乘法示意图展示了llama.cpp在GPU上进行张量运算的核心原理,帮助你理解为什么兼容性问

LLM项目实战:使用Llama-factory进行DPO训练

前言 LLM训练三板斧,预训练,微调,RHLF。DPO属于是最后环节RHLF中的一个方法,关于RLHF主流方法有PPO,DPO,GROP。关于这三种介绍RLHF方法,我之前分享过对着三种方法的一些思考,有兴趣的同学可以看看。 因为DPO对硬件的需求最小,显存占用最低,所以我们先采用DPO进行训练。 硬件信息: 4070 12g*2 、64g内存、操作系统:Ubuntu24.04、模型:QWEN-3vl-2B(因为我这个模型是上个多模态任务sft过的,所以选择vl模型,没有图片输入需求的同学可以下载纯语言模型) 本篇教程仅关于DPO训练,请提前配置好环境和下载好LLamafactory(关于llamafactory环境配置其实也是一大头疼的点,注意如果想要使用分布式训练,llamafactory仅支持到deeospeed10.0-16.0,截止到2025年11月20日llamafactory还没有完成对deepspeed最新版本的适配 碎碎念:很多初学大模型的同学还是使用Windows系统进行训练,本人之前也是。但是由于Windows总是出现各种奇怪的报错和显存不稳定

VSCode Copilot认证失败频发,资深工程师都在用的3个冷门修复技巧

第一章:VSCode Copilot认证失败的常见现象与影响 认证失败的主要表现 当 VSCode 中的 GitHub Copilot 无法完成身份验证时,用户通常会遇到以下几种典型现象: * 编辑器右下角持续显示“Connecting to GitHub…”提示 * 弹出错误通知:“GitHub Copilot could not sign in”或“Authentication failed” * 代码补全功能完全失效,无任何智能建议出现 * 命令面板中 Copilot 相关命令变灰不可用 潜在影响分析 认证失败不仅中断开发流程,还可能引发更深层次的问题。长期无法认证将导致: 1. 团队协作效率下降,尤其在依赖 AI 辅助编码的敏捷开发环境中 2. 开发者被迫切换至低效的手动编码模式,增加人为错误风险 3. 企业级项目中可能出现代码风格不一致、重复代码增多等问题 典型错误日志示例 在 VSCode 的输出面板中选择“