Python热度下滑、AI能取代搜索引擎?TIOBE最新榜单揭晓!

Python热度下滑、AI能取代搜索引擎?TIOBE最新榜单揭晓!

整理 | 屠敏

出品 | ZEEKLOG(ID:ZEEKLOGnews)

日前,TIOBE 发布了最新的 3 月编程语言榜单。整体来看,本月排名变化不算大,但榜单中仍然出现了一些值得关注的小波动。

图片

 AI 工具能帮大家秒懂最新编程语言趋势?

由于 2 月天数较少,3 月的榜单整体变化有限。借着这次发布,TIOBE CEO Paul Jansen 也回应了一个最近被频繁讨论的问题:为什么 TIOBE 指数仍然依赖搜索引擎统计结果?在大语言模型流行的今天,直接询问 AI 哪些编程语言最流行,是不是更简单?

对此,Jansen 的回答是否定的。

他解释称,TIOBE 指数本质上统计的是互联网上关于某种编程语言的网页数量。而大语言模型的训练数据同样来自这些网页内容,因此从信息来源来看,两者并没有本质区别。换句话说,LLM 的判断,本质上也是建立在这些网页数据之上的。

图片

Python 活跃度仍在下降

虽然整体格局比较稳定,但榜单中还是出现了一些小变化。

其中 Python 依然稳居第一,不过近几个月热度略有下降,本月下降 2.59%,目前占比 21.25%。究其背后原因,一方面或是因为 Python 在数据科学、人工智能等领域已经逐渐成熟,增长空间相比前几年有所放缓。同时,R、Perl、Rust 和 TypeScript 等语言在特定领域的关注度上升,也在一定程度上分散了开发者的关注,使 Python 的相对比例出现小幅下滑。

此外,在前十名中,SQL 与 R 互换了位置。当前,SQL 以 2% 的份额,排在第八位,R 位居第五,占比 1.88%。这种变化在一定程度上反映出数据相关技术的持续热度。随着数据分析、商业智能以及数据工程需求的增长,SQL 作为数据查询和处理的基础语言,依然保持着稳定的关注度。而 R 虽然在统计分析和学术研究领域依然重要,但近年来在部分数据科学场景中,也逐渐受到 Python 生态的竞争。

与此同时,Swift 重新进入前二十名,而 Kotlin 则被挤出了前二十。从生态来看,Swift 的回升可能与 Apple 平台开发需求保持稳定有关,而 Kotlin 虽然仍是 Android 开发的重要语言,但近年来 Android 生态的技术关注度整体趋于平稳,也可能影响了其搜索热度。

除此之外,再往后看,Ruby 的排名也在持续下滑,目前已经逼近前三十名边缘。如果这一趋势继续,未来几个月 Ruby 可能会跌出前 30。业内普遍认为,这与 Ruby on Rails 在新项目中的采用率下降,以及部分 Web 开发逐渐转向 JavaScript、Python 或 Go 等语言有关。

图片

其他编程语言

以下为 Top 21-50 的编程语言榜单:

第 51-100 名如下,由于它们之间的数值差异较小,仅以文本形式列出(按字母排序):Algol, Alice, Apex, Awk, Bash, C shell, Caml, CL (OS/400), Clojure, Common Lisp, F#, Forth, GAMS, GML, Groovy, Hack, Icon, Inform, Io, J, J#, JScript, JScript.NET, Korn shell, ML, Modula-2, Mojo, MQL5, MS-DOS batch, NATURAL, Nim, OCaml, OpenCL, Q, REXX, RPG, S, Scheme, Small Basic, Smalltalk, Solidity, SPARK, Structured Text, Tcl, V, Vala/Genie, VHDL, WebAssembly, Wolfram, Xojo

图片

Top 10 编程语言 TIOBE 指数走势(2002-2026)

图片

历史排名(1988-2026)

编程语言“名人榜”(2003-2024)

【说明】:

TIOBE 编程语言社区排行榜是编程语言流行趋势的一个指标,每月更新,这份排行榜排名基于全球技术工程师、课程和第三方供应商的数量,其中包括了流行的搜索引擎以及技术社区,如 Google、百度、维基百科、必应、Hao 123 等等。具体的计算方式详见:https://www.tiobe.com/tiobe-index/programming-languages-definition/。请注意这个排行榜只是反映某个编程语言的热门程度,并不能说明一门编程语言好不好,或者一门语言所编写的代码数量多少。

这个排行榜可以用来考察你的编程技能是否与时俱进,也可以在开发新系统时作为一个语言选择依据。

推荐阅读:

上门安装“龙虾”几天赚26万?工程师提出质疑;雷军:未来每天上班两小时就够了;大四学生AI开源项目获陈天桥3000万投资 | 极客头条

48小时“烧光”56万!三人创业团队濒临破产,仅因Gemini API密钥被盗:“AI账单远超我们的银行余额”

全球26w+用户在线「养虾」:OpenClaw这一波泼天流量,到底让谁接住了?

未来没有前后端,只有 AI Agent 工程师。

这场十倍速的变革已至,你的下一步在哪?

4 月 17-18 日,由 ZEEKLOG 与奇点智能研究院联合主办「2026 奇点智能技术大会」将在上海隆重召开,大会聚焦 Agent 系统、世界模型、AI 原生研发等 12 大前沿专题,为你绘制通往未来的认知地图。

成为时代的见证者,更要成为时代的先行者。

奇点智能技术大会上海站,我们不见不散!

Read more

基于腾讯云HAI + DeepSeek快速设计自己的个人网页

基于腾讯云HAI + DeepSeek快速设计自己的个人网页

前言:通过结合腾讯云HAI 强大的云端运算能力与DeepSeek先进的 AI技术,本文介绍高效、便捷且低成本的设计一个自己的个人网页。你将了解到如何轻松绕过常见的技术阻碍,在腾讯云HAI平台上快速部署DeepSeek模型,仅需简单几步,就能获取一个包含个人简介、技能特长、项目经历及联系方式等核心板块的响应式网页。 目录 一、DeepSeek模型部署在腾讯云HAI 二、设计个人网页 一、DeepSeek模型部署在腾讯云HAI 把 DeepSeek 模型部署于腾讯云 HAI,用户便能避开官网访问限制,直接依托腾讯云 HAI 的超强算力运行 DeepSeek-R1 等模型。这一举措不仅降低了技术门槛,还缩短了部署时间,削减了成本。尤为关键的是,凭借 HAI 平台灵活且可扩展的特性,用户能够依据自身特定需求定制专属解决方案,进而更出色地适配特定业务场景,满足各类技术要求 。 点击访问腾讯云HAI控制台地址: 算力管理 - 高性能应用服务 - 控制台 腾讯云高性能应用服务HAI已支持DeepSeek-R1模型预装环境和CPU算力,只需简单的几步就能调用DeepSeek - R1

By Ne0inhk
AI革命先锋:DeepSeek与蓝耘通义万相2.1的无缝融合引领行业智能化变革

AI革命先锋:DeepSeek与蓝耘通义万相2.1的无缝融合引领行业智能化变革

云边有个稻草人-ZEEKLOG博客 目录 引言 一、什么是DeepSeek? 1.1 DeepSeek平台概述 1.2 DeepSeek的核心功能与技术 二、蓝耘通义万相2.1概述 2.1 蓝耘科技简介 2.2 蓝耘通义万相2.1的功能与优势 1. 全链条智能化解决方案 2. 强大的数据处理能力 3. 高效的模型训练与优化 4. 自动化推理与部署 5. 行业专用解决方案 三、蓝耘通义万相2.1与DeepSeek的对比分析 3.1 核心区别 3.2 结合使用的优势 四、蓝耘注册流程 五、DeepSeek与蓝耘通义万相2.1的集成应用 5.1 集成应用场景 1. 智能医疗诊断

By Ne0inhk
如何通过 3 个简单步骤在 Windows 上本地运行 DeepSeek

如何通过 3 个简单步骤在 Windows 上本地运行 DeepSeek

它是免费的——社区驱动的人工智能💪。         当 OpenAI 第一次推出定制 GPT 时,我就明白会有越来越多的人为人工智能做出贡献,并且迟早它会完全由社区驱动。         但从来没有想过它会如此接近😂让我们看看如何在 Windows 机器上完全免费使用第一个开源推理模型!  步骤 0:安装 Docker 桌面         我确信很多人已经安装了它,所以可以跳过,但如果没有 — — 这很简单,只需访问Docker 的官方网站,下载并运行安装 👍         如果您需要一些特定的设置,例如使用 WSL,那么有很多指导视频,请查看!我将继续下一步。 步骤 1:安装 CUDA 以获得 GPU 支持         如果您想使用 Nvidia 显卡运行 LLM,则必须安装 CUDA 驱动程序。(嗯……是的,它们需要大量的计算能力)         打开CUDA 下载页面,

By Ne0inhk
在 VSCode 中本地运行 DeepSeek,打造强大的私人 AI

在 VSCode 中本地运行 DeepSeek,打造强大的私人 AI

本文将分步向您展示如何在本地安装和运行 DeepSeek、使用 CodeGPT 对其进行配置以及开始利用 AI 来增强您的软件开发工作流程,所有这些都无需依赖基于云的服务。  步骤 1:在 VSCode 中安装 Ollama 和 CodeGPT         要在本地运行 DeepSeek,我们首先需要安装Ollama,它允许我们在我们的机器上运行 LLM,以及CodeGPT,它是集成这些模型以提供编码辅助的 VSCode 扩展。 安装 Ollama Ollama 是一个轻量级平台,可以轻松运行本地 LLM。 下载Ollama 访问官方网站:https://ollama.com * 下载适合您的操作系统(Windows、macOS 或 Linux)的安装程序。 * 验证安装 安装后,打开终端并运行: ollama --version  如果 Ollama 安装正确,

By Ne0inhk