微软玻璃存储技术突破:数据保存可超万年

微软玻璃存储技术突破:数据保存可超万年

面临长期数据存档成本和复杂性挑战的企业,很快可能拥有一个全新选择:一片玻璃。

周三发表的最新研究表明,一块120毫米见方、仅2毫米厚的硼硅酸盐玻璃板可在301层中存储4.8TB数据,加速老化测试显示,数据将保持完整至少10,000年。

"玻璃是一种永久性数据存储材料,具有防水、耐热和防尘特性,"微软研究人员在《自然》科学技术期刊上发表的论文中写道。"我们已经掌握了并行高速写入的科学原理,并开发了一种技术来对写入的玻璃进行加速老化测试,表明数据应该能保持完整至少10,000年。"

该技术的早期版本需要熔融石英,这是一种只有少数制造商生产的高纯度玻璃。新发现表明,该系统在硼硅酸盐玻璃上同样有效——这种玻璃制造广泛且成本显著更低——使该技术向商业化迈出了重要一步。

时机非常重要。

根据论文引用的希捷研究,全球数据圈大约每三年翻一番,然而"大多数数字存档系统依赖的介质都会降解",远未达到法律、财务和监管义务日益要求的几十年保存时间表。

磁带是目前部署最广泛的存档介质,反映了这些限制。当前的企业基准LTO-10(线性磁带开放)盒式磁带可以400MB/s的速度保存30TB至40TB原生数据,但其额定保质期仅为30年。它需要在16°C至25°C之间的气候控制存储,并且大约每五到十年需要迁移一次。

分析师表示,这种运营开销才是磁带的真正成本——不是介质本身。"存档系统很少因为盒式磁带按计划化学降解而失效,"灰狗研究首席分析师Sanchit Vir Gogia说。"它们失效是因为兼容性窗口关闭、驱动器代际演进、固件支持日落以及机器人需要更新。"

Gartner首席分析师Vishesh Divya指出,磁带即服务模式已将部分负担转移,在定义的服务级别保证下,将硬件生命周期管理转移给提供商。

"LTO磁带仍是企业冷存储的基准,"他说。"每TB的介质成本保持较低,生态系统成熟,企业在管理更新周期方面拥有数十年的运营经验。"

索尼的光盘存档——主要的光学替代方案,每个盒式磁带5.5TB,额定保质期100年——已于2025年3月停产,市场上没有同类产品。

Silica项目是微软基于玻璃的存储计划,使用飞秒激光脉冲将数据编码为玻璃内部称为体素的三维结构,每束激光25.6兆比特/秒,每比特能耗10.1纳焦耳。

论文描述了两种编码方法。第一种方法是双折射体素,修改玻璃的偏振特性。团队将所需的激光脉冲减少为伪单脉冲技术——一个脉冲分裂以同时开始一个体素并完成另一个——实现更快的束扫描。

第二种方法是相位体素,这是一项新发明,修改玻璃的相位特性,每个体素只需要一个脉冲。关键是,它在硼硅酸盐玻璃中有效,而双折射方法无效。"相位体素中更高水平的三维符号间干扰可以通过机器学习分类模型来缓解,"研究人员写道。

早期的Silica项目读取器需要三到四个摄像头来检索数据;更新的系统只需要一个,完成了研究人员所描述的第一个完全演示的端到端玻璃存档系统,从写入和存储到检索。

长久性声明得到了团队开发的非破坏性光学方法的支持,该方法可就地测量体素降解,结合应用于写入硼硅酸盐样品的加速老化技术。"对硼硅酸盐中写入体素的加速老化测试表明数据寿命超过10,000年,"研究人员指出。

对于企业买家来说,仅靠长久性无法说服他们。

"现实的总拥有成本比较必须在多十年的生命周期范围内建模,而不是采购周期,"Gogia说。"玻璃存储通过可能消除迁移周期来重构经济曲线——减少劳动力、协调开销和运营中断。"然而,写入速度仍然明显慢于磁带,使玻璃更适合超冷、低摄取的存储需求。

合规性增加了另一个维度。编码为永久光学修改的数据无法被覆盖,减少了勒索软件暴露。但"合规性是系统属性,不是基底属性,"Gogia警告说。"企业仍必须确保加密密钥轮换、元数据索引和审计跟踪完整性。10,000年的介质不会消除展示治理纪律的义务。"

微软在单独的博客文章中表示,Silica项目的研究阶段现已完成。"我们将继续考虑从Silica项目中获得的经验,探索数字信息可持续长期保存的持续需求,"该公司表示,但未披露商业化路线图。如果商业化,玻璃存储不太可能取代磁带。

"它更可能作为专门的超长期保存方案出现,而不是取代基于磁带的冷存储,"Gartner的Divya说。"任何新介质都必须在完整堆栈方程式上竞争——经济性、硬件、软件和运营模式——而不仅仅是介质寿命。"

Q&A

Q1:微软Silica项目的玻璃存储技术是如何工作的?

A:Silica项目使用飞秒激光脉冲将数据编码为玻璃内部称为体素的三维结构。技术包含两种编码方法:双折射体素修改玻璃的偏振特性,相位体素修改玻璃的相位特性。更新的系统只需要一个读取器就能检索数据,形成完整的端到端存档系统。

Q2:玻璃存储相比传统磁带存储有什么优势?

A:玻璃存储最大优势是超长保存期限,加速老化测试显示数据可保持完整至少10,000年,而LTO磁带保质期仅30年。玻璃还具有防水、耐热、防尘特性,无法被覆盖从而减少勒索软件风险。最重要的是可能消除频繁的数据迁移周期,降低运营成本。

Q3:玻璃存储技术什么时候能商业化使用?

A:微软表示Silica项目的研究阶段已完成,但未披露具体的商业化时间表。分析师认为即使商业化,玻璃存储也更可能作为专门的超长期保存方案,而不是完全取代磁带存储。任何新技术都需要在经济性、硬件、软件和运营模式等方面全面竞争。

Read more

前端微前端架构:大项目的救命稻草还是自找麻烦?

前端微前端架构:大项目的救命稻草还是自找麻烦? 毒舌时刻 微前端?听起来就像是一群前端工程师为了显得自己很高级,特意发明的复杂术语。不就是把一个大应用拆成几个小应用嘛,至于搞得这么玄乎吗? 你以为拆成微前端就能解决所有问题?别做梦了!到时候你会发现,调试变得更麻烦了,部署变得更复杂了,甚至连样式都可能互相冲突。 为什么你需要这个 1. 大型应用的可维护性:当你的应用变得越来越大,单靠一个团队已经无法高效维护时,微前端可以让不同团队独立开发和部署各自的模块。 2. 技术栈的灵活性:不同的微前端可以使用不同的技术栈,比如一个模块用React,另一个模块用Vue,这样可以根据团队的专长选择最合适的技术。 3. 独立部署:微前端可以独立部署,不需要整个应用一起发布,这样可以减少发布风险,加快发布速度。 4. 团队协作:不同团队可以独立开发各自的微前端,减少代码冲突和沟通成本。 反面教材 // 这是一个典型的单体应用结构 import React from 'react'; import ReactDOM from 'react-dom'

AI大模型驱动的软件开发革命:从代码生成到自愈系统的全流程重构

AI大模型驱动的软件开发革命:从代码生成到自愈系统的全流程重构

目录 * 引言:软件开发范式转移的临界点 * 技术演进:从辅助工具到开发中枢 * 需求分析阶段:智能需求工程师 * 设计阶段:AI架构师登场 * 编码阶段:从Copilot到AutoCode * 测试阶段:智能测试工程师 * 部署与运维:自愈式系统 * 行业应用场景深度解析 * 医疗领域:智能陪诊系统 * 金融领域:智能合规助手 * 技术挑战与解决方案 * 数据隐私保护 * 模型可解释性 * 未来趋势:AI原生开发范式 * 开发工具链重构 * 开发者角色转型 * 产业链影响 * 总结与展望 引言:软件开发范式转移的临界点 在GitHub Copilot用户突破1.5亿的2025年,AI大模型已渗透到软件开发的每个环节。根据微软Build大会披露的数据,某金融企业通过AI开发平台将新功能上线周期从6个月压缩至6周,人力成本降低40%。这场变革不仅体现在效率提升上,更重塑了软件开发的底层逻辑。本文将结合2025年最新实践案例,深度解析AI大模型如何重构软件开发全生命周期。 技术演进:从辅助工具到

基于30年教学沉淀的清华大学AI通识经典:《人工智能的底层逻辑》

基于30年教学沉淀的清华大学AI通识经典:《人工智能的底层逻辑》

📚 引言:为什么你需要这本书? 在人工智能技术席卷全球的今天,你是否曾好奇: * 机器是如何"看见"世界的? * 算法是如何"理解"人类语言的? * 智能系统背后的基本原理是什么? 《人工智能的底层逻辑》正是为解答这些疑问而生!这本书由清华大学张长水教授基于30年教学与科研经验精心撰写,以通俗易懂的方式揭开AI技术的神秘面纱。 你对AI的好奇 《人工智能的底层逻辑》 理解AI基本原理 应用AI思维解决问题 参与AI技术讨论 基于30年教学沉淀的清华大学AI通识经典:《人工智能的底层逻辑》 * 📚 引言:为什么你需要这本书? * 🏛️ 书籍结构与内容亮点 * 📖 系统化的知识架构 * 🧩 独特的"四维解析"框架 * 🌟 特色教学方式 * 🎯 适合哪些读者? * 📊 为什么这本书与众不同? * ✨ 三大核心优势 * 🆚 同类书籍对比 * 🚀 实际应用案例 * 案例1:智能客服系统 * 案例2:医疗影像分析 * 📖 如何高效阅读本书? * 🔍 阅读路线建议 * 💡 学习

5分钟切换不同AI引擎:Codex多模型支持实战指南

5分钟切换不同AI引擎:Codex多模型支持实战指南 【免费下载链接】codex为开发者打造的聊天驱动开发工具,能运行代码、操作文件并迭代。 项目地址: https://gitcode.com/GitHub_Trending/codex31/codex 还在为频繁切换AI模型烦恼?本文将带你掌握Codex的多模型支持功能,轻松切换不同AI引擎,提升开发效率。读完本文,你将学会如何配置、切换和优化不同的AI模型,满足多样化的开发需求。 为什么需要多模型支持? 在开发过程中,不同的任务可能需要不同的AI模型。例如,代码生成可能需要GPT-5的强大能力,而简单的文本处理使用Ollama本地模型更高效。Codex的多模型支持让你可以根据任务需求灵活切换,无需更换工具。 Codex的模型切换功能基于model_family.rs和model_provider_info.rs实现,支持多种主流AI模型和自定义模型配置。 支持的AI模型和提供商 Codex支持多种AI模型和提供商,包括但不限于: 模型系列提供商特点GPT-5系列OpenAI强大的代码生成和理解能力o3/o4-