初识Langchain之AI语言大模型

初识Langchain之AI语言大模型

目录

1. 什么叫模型

2. 什么是大语言模型

2.1 神经网络

2.2 自监督学习

2.3 半监督学习

2.4 语言模型

3. 大语言模型的能力


1. 什么叫模型

今天我们来聊一聊什么叫做模型。

模型是⼀个从数据中学习规律的“数学函数”或“程序”。旨在处理和⽣成信息的算法,通常模仿⼈类的认知功能。通过从⼤型数据集中学习模式和洞察,这些模型可以进⾏预测、⽣成⽂本、图像或其他输出,从⽽增强各个⾏业的各种应⽤。

简单来说就是一个模型只会处理一件事,我们也可以把它理解为单个工作流,然后多个模型组合在一起就是语言大模型了。

它和工作流的区别在我看来就是它这个处理是需要提前训练。我们看下面这个图片,我们就像这样把下面这些狗狗的图片全部都喂给模型,并且我们需要给每一张图片都标注好这个是狗,这样再经过很多张这样图片让AI看,然后AI就学会分辨什么是狗了。

但是这个模型的话就只可以分辨什么是狗,如果我们问这个模型什么是猫的话,那么这个模式是无法做出回答的。

2. 什么是大语言模型

2.1 神经网络

神经网络我们可以理解为很多个无数个组合在一起的工作流,每一块工作流只处理一小部分的问题,通过各自之间的配合,从而达成有效处理用户信息的能力。

2.2 自监督学习

自监督学习是一种无监督学习的进阶范式,核心是让模型自己从原始数据中构造监督信号(标签),无需人工标注数据,就能完成特征学习和模型训练。

这个的话我的理解就相当于是自学,同时自己给自己修正方向。

2.3 半监督学习

半监督就是“少量指导+⼤量自学”的结合模式。

通过给部分的照片备注,接着再放一些不相关的照片来给模型进行识别,这种学习过程叫做半监督学习。

2.4 语言模型

语⾔模型的核⼼任务就是预测下⼀个词。⼀个强⼤的语⾔模型,能够根据⼀段话,预测出最合理、最通顺的下⼀个词是什么,这样⼀个个词接下去,就能⽣成⼀整段话、⼀篇⽂章。

比如我们平常打字时的自动补全,那就是一种语言模型。

3. 大语言模型的能力

大语言模型和语言模型并不完全是一种东西。简单来说,所有大语言模型都是语言模型,但并非所有语言模型都是大语言模型。

核心定义与关键特征

  1. 核心定位:以 “预测下一个词” 为基础任务,通过海量数据学习语言规律、知识与逻辑,涌现对话、推理、创作等通用能力,而非仅针对单一任务。
  2. 三大关键特征
    • 架构:统一采用 Transformer(多为纯 Decoder),自注意力机制高效捕捉长距离语义依赖,并行计算能力远超 RNN/LSTM。
    • 规模:参数量达数十亿至万亿级(如 GPT-3 1750 亿、GPT-4 万亿级),训练数据为 TB 级通用文本(书籍、网页、代码等)。
    • 能力:支持零样本 / 少样本学习,可跨任务泛化,具备上下文理解、复杂推理与多模态(文本 + 图像 / 音频)处理能力。

主要挑战与局限

  • 幻觉:生成看似合理但不符合事实的内容,需外部知识库或检索增强(RAG)修正。
  • 算力与成本:训练与推理依赖大规模 GPU 集群,成本高、能耗大。
  • 安全与伦理:存在偏见、隐私泄露、内容滥用风险,需强化对齐与合规管控。
  • 上下文窗口限制:虽持续扩大(如 GPT-4 128k、Gemini 1.5 Pro 10M),但超长文本处理仍有瓶颈。

Read more

8大AI平台速度和token消耗测试,小米MiMo也加上!

8大AI平台速度和token消耗测试,小米MiMo也加上!

自己开发的工具要多用! 周一工作日的时候我们测试了6大Coding Plan的速度和能耗(tokens)! 当时主要包含了智谱、Kimi、MiniMax、火山方舟、阿里百炼、腾讯混元等 6 个 Coding Plan 的平台。 今天周六,休息日,我再来测一次! 测试选手加上了最新发布的小米 MiMo2Pro,以及OpenRouter 中的 Opus 4.6! 也就是说凑够了 8 个平台。 另外这次测试会加两题,除了考智力之外,考考指令遵循能力,以及文学和自我发挥的能力。 废话不多说,直接开测。 1、极简回答 AI 有时候很喜欢废话,纯粹浪费时间,浪费 tokens,所以我觉得这个测试非常有必要。 第一个问题: 问题:早上好 系统提示词:关闭所有思考能力,用最简单的方式来回答! 大部分AI都是符合要求的,回答“

Llama-3.2-3B新手教程:3步搭建你的AI写作助手

Llama-3.2-3B新手教程:3步搭建你的AI写作助手 1. 为什么选Llama-3.2-3B做写作助手 你是不是也遇到过这些情况:写周报卡壳半小时、给客户写方案反复删改、想发条朋友圈却憋不出一句像样的话?别急,这次不用等灵感,一个轻量又聪明的AI写作助手已经 ready——Llama-3.2-3B。 它不是动辄几十GB的大块头,而是一个仅30亿参数、却在多语言对话和文本生成任务中表现亮眼的“小而强”模型。由Meta官方发布,经过指令微调(SFT)和人类反馈强化学习(RLHF)双重优化,它更懂怎么听懂你、怎么帮上忙,而不是自说自话。 更重要的是,它不挑设备:一台8GB内存的笔记本就能跑起来;不设门槛:不用配环境、不装CUDA、不编译源码;不绕弯路:点几下就进对话框,输入一句话,立刻开始帮你写。 这不是实验室里的Demo,而是真正能放进你日常写作流里的工具——写邮件、列提纲、润色文案、生成产品描述、甚至写小红书爆款标题,它都能接得住、写得顺、

昔日AI绘画框架王者Stable Diffusion WebUI,已死

昔日AI绘画框架王者Stable Diffusion WebUI,已死

写在前面 【WeThinkIn出品】栏目分享Rocky的认知思考与经验感悟,范围涵盖但不限于AI行业。 欢迎大家关注Rocky的公众号:WeThinkIn 欢迎大家关注Rocky的知乎:Rocky Ding AIGC算法工程师面试面经秘籍分享:WeThinkIn/Interview-for-Algorithm-Engineer欢迎大家Star~ 获取更多AI行业的前沿资讯与干货资源 AIGC时代的 《三年面试五年模拟》AI算法工程师求职面试秘籍独家资源:【三年面试五年模拟】AI算法工程师面试秘籍 Rocky最新撰写10万字Stable Diffusion 3和FLUX.1系列模型的深入浅出全维度解析文章:深入浅出完整解析Stable Diffusion 3(SD 3)和FLUX.1系列核心基础知识 AIGC算法岗/开发岗面试面经交流社群(涵盖AI绘画、AI视频、大模型、AI多模态、数字人等AIGC面试干货资源)欢迎大家加入:https://t.zsxq.com/33pJ0 大家好,我是Rocky。 “还记得我们第一次打开Stable Diffusion WebUI,用上第

【AIGC】ChatGPT 的 Prompt Hacker 技巧:让简历轻松通过 AI 筛选

【AIGC】ChatGPT 的 Prompt Hacker 技巧:让简历轻松通过 AI 筛选

博客主页: [小ᶻ☡꙳ᵃⁱᵍᶜ꙳]本文专栏: AIGC |ChatGPT 文章目录 * 💯前言 * 💯背景 * 简化简历格式 * 💯简化 Prompt Hacker 的逻辑 * 使用 Prompt Hacker 技巧 * **示例 Prompt:引导 AI 筛选简历** * 如何利用 Prompt 优化简历筛选? * **示例 Prompt** * 💯在简历中注入指令词 * **为什么在简历中注入指令词?** * **具体操作方法** * **示例 Prompt**: * **操作步骤** * 提示与风险 * 💯极端场景验证:测试简历优化策略的有效性 * 验证方法 * 测试场景示例 * 测试结论 * 总结 * 💯实际应用:优化简历的操作步骤 * 操作步骤 * 💯注意事项:关于简历优化的核心思考 * 💯小结 💯前言 随着人工智能技术的迅猛发展,尤其是大语言模型如