【AIGC前沿】MiniMax海螺AI视频——图片/文本生成高质量视频

【AIGC前沿】MiniMax海螺AI视频——图片/文本生成高质量视频

目录

1.MiniMax海螺AI视频简介

2.使用教程


1.MiniMax海螺AI视频简介

海螺视频,作为 MiniMax 旗下海螺 AI 平台精心打造的 AI 视频生成工具,致力于助力用户产出高品质视频内容。该工具依托 abab-video-1 模型,具备强大的文生视频功能。用户仅需输入关键词或简短语句,海螺视频就能据此创作出情节丰富的完整视频。此外,海螺视频运用 DiT 架构,能够精准模拟现实世界的物理规律,尤其在生成复杂场景与高动作场景时,展现出卓越的性能。

2.使用教程

点击如下链接,进入蓝耘元生代智算云平台主页

https://cloud.lanyun.net/#/registerPage?promoterCode=11f606c51e

点击主页上方栏的“MaaS平台”

然后点击左侧栏的“视觉模型” 

可以看到可以免费体验一次I2V-01图片生成视频 

点击如下红框处将图片上传 

例如输入如下的图片

例如想让小狗动起来,可以在如下红框处输入相应的指令,然后点击立即生成 , 等待一段时间后,视频即可生成出来

视觉模型API

Video Generation(视频生成)

该API支持基于用户提供的prompt、首帧图片、主体参考图片,生成720p,25帧的动态视频。

该接口采用异步调用的方式完成视频生成:首先创建视频生成任务,对应接口会返回任务ID(task_id);接下来,在异步任务查询接口通过任务 ID (task_id),获取视频生成任务的状态,以及生成的视频的文件ID(file_id)。

API说明

完成视频生成及下载,使用到三个API:创建视频生成任务、查询视频生成任务状态文件管理。具体步骤如下:

1.使用创建视频生成任务接口,创建视频生成任务,并得到task_id;

2.使用查询视频生成任务状态接口,基于task_id查询视频生成任务状态;当状态为成功时,将获得对应的文件 ID(file_id);

3.使用文

Read more

Stable-Diffusion-v1-5-archive性能压测报告:QPS/延迟/显存占用三维度实测

Stable-Diffusion-v1-5-archive性能压测报告:QPS/延迟/显存占用三维度实测 想了解一个AI模型到底“快不快”、“稳不稳”、“贵不贵”?光看功能介绍可不够。今天,我们就拿经典的Stable Diffusion v1.5 Archive模型开刀,进行一次全方位的性能“体检”。我们将从三个核心维度——每秒处理能力(QPS)、响应延迟和显存占用——来实测它的表现,看看这个老牌文生图模型在今天的技术环境下,究竟实力如何。 1. 压测目标与方法论 在开始之前,我们先明确这次压测要回答的几个关键问题: 1. 极限性能:在单张GPU上,这个模型最高能承受多大的并发请求压力? 2. 响应速度:从用户提交请求到拿到图片,平均需要等待多久? 3. 资源消耗:运行这个服务,到底需要吃掉多少显存?成本高不高? 4. 稳定性:在高负载下,服务会不会崩溃?生成质量会不会下降? 为了回答这些问题,我们设计了一套压测方案。测试环境基于一台配备了单张NVIDIA RTX

Cogito-v1-preview-llama-3B实战教程:Ollama中启用stream流式响应设置

Cogito-v1-preview-llama-3B实战教程:Ollama中启用stream流式响应设置 1. 快速了解Cogito v1预览版模型 Cogito v1预览版是Deep Cogito推出的混合推理模型系列,这个3B参数的模型在大多数标准基准测试中都表现出色,超越了同等规模下的其他开源模型。无论是LLaMA、DeepSeek还是Qwen等同类模型,Cogito v1都展现出了更强的能力。 这个模型最大的特点是采用了混合推理机制。它既可以像普通大语言模型那样直接回答问题,也可以在回答前进行自我反思和推理,就像人类思考问题时会先在大脑中过一遍思路一样。这种设计让模型的回答更加准确和深入。 模型使用迭代蒸馏和放大(IDA)策略进行训练,这是一种通过不断自我改进来提升智能水平的高效方法。特别适合编码、STEM学科、指令执行和通用帮助场景,而且在多语言支持和工具调用能力方面表现突出。 2. 环境准备与Ollama基础设置 2.1 安装Ollama环境 首先确保你的系统已经安装了Ollama。如果还没有安装,可以通过以下命令快速安装: # 在Linux/macOS

【AI大模型入门】03:文心一言——百度的AI战略,国产大模型的先行者

【AI大模型入门】03:文心一言——百度的AI战略,国产大模型的先行者

【AI大模型入门】03:文心一言——百度的AI战略,国产大模型的先行者 📖 阅读时长:约8分钟 🎯 适合人群:想了解国产大模型发展、或百度AI生态的用户 💡 你将学到:文心一言是什么、背后的技术、核心能力、使用方法 一、文心一言的"出生"背景 2023年3月,就在ChatGPT席卷全球的浪潮里,百度率先发布了国内第一个对标ChatGPT的大模型产品——文心一言(英文名:ERNIE Bot)。 这一步棋走得很早,也很大胆。当时百度创始人李彦宏亲自站台发布,引发了全社会对"国产AI能否追上ChatGPT"的大讨论。 时间轴: 2022.11 ChatGPT 发布,震惊世界 2023.03 文心一言 发布,中国第一个 2023.10 文心大模型4.

【大模型微调】LLaMA Factory 微调 LLMs & VLMs

【大模型微调】LLaMA Factory 微调 LLMs & VLMs

LLaMA Factory是一个大模型高效微调平台,在github有60k多收藏了,很适合入门的朋友 提供了“ 一站式”的操作界面,通过可视化操作,就可以完成对LLMs 或 VLMs的微调了 开源地址:https://github.com/hiyouga/LLaMA-Factory 下面是微调的页面,简洁、清晰、功能多: 目录 一、LLaMA Factory的特色 二、支持的模型 三、提供的数据集(基础) 四、安装LLaMA Factory  五、微调LLM实践--Qwen3-4B-Thinking  六、微调VLM实践--Qwen/Qwen2.5-VL-3B-Instruct 七、了解源代码 八、其他参考资料 一、LLaMA Factory的特色 * 多种模型:LLaMA、LLaVA、Mistral、