人工智能 (AI) 如何改变 NVMe® SSD
编辑:宝星微科技 | 发布时间:2023-03-13 10:11 | 浏览次数:171
每个人在打开浏览器或社交媒体平台并看到基于先前浏览活动的个性化产品、晚餐甚至旅行推荐时,都会体验到这些强大的 AI 算法。
存储也不例外。需要采用较少人为干预来监控数据中心的方法,以跟上所用系统和技术的规模。NVMe® 固态硬盘 (SSD) 正在满足更高性能和数据保护需求的需求;然而,他们缺乏数据丢失预防措施和早期检测任何功能退化的技术。
在 NVMe SSD 中采用 AI 和 ML 正在成为故障预测分析和恢复机制、流量确定、性能优化以及自适应 NAND 管理以提高可靠性的要求。遍及整个数据中心基础设施的人工智能和机器学习现在开始包括端点 SSD。
人工智能 (AI)、机器学习 (ML) 和深度学习 (DL) 通常可以互换使用,但它们并不相同。人工智能可以定义为构建能够创造性地解决复杂问题或模仿人类思维的智能程序和机器。机器学习是人工智能的一个子集,它使系统能够自动从输入训练数据中学习并提供准确的输出。深度学习是 ML 的一个子集,它使用神经网络来分析具有类似于人类神经系统的结构的各种因素。
为了深入研究,机器学习模型(ML 引擎)从过去的数据(也称为训练数据)中学习,无需显式编程即可做出预测。当引入一组新的训练数据时,ML 模型会再次使用附加数据进行训练,以提供更准确的输出数据——随着训练数据集中训练数据量的增加,ML 输出的准确性也会提高。ML 最常见和最知名的应用是社交网站上的自动标记建议。但也有其他几种类型的 ML,例如:
监督学习——学习算法采用训练(输入)和目标标记数据集,进行训练(学习),并生成准确的输出
无监督学习——学习是在没有标记数据的情况下完成的,算法会在输入数据集中发现模式、数据相似性或分组
半监督学习——结合监督学习和无监督学习,让算法从少量标记内容中学习,同时对大量数据进行分类
强化学习- 用于在一段时间内训练的学习
ML 模型是如何创建的?
ML 模型涉及两种操作模式——训练模式和应用模式。
在训练模式下,ML 引擎具有神经网络节点,需要使用功能模型进行编程,然后进行训练以进行学习和适应。训练模式在 NVMe 控制器之外完成。
应用模式是实际部署阶段的运行时模式,机器学习引擎不断学习和适应真实环境,交付期望的输出。从训练模式生成的 ML 引擎配置被编程到 NVMe 控制器中,并在任务模式中使用。
拥有专用的 ML 引擎硬件如何使 NVMe 控制器受益?
可以在 NVMe 控制器中设计通用 ML 引擎,用于多种应用,例如:
计算存储:将 SSD 变成计算存储设备 (CSD),释放计算资源并整合各种 AI 和 ML 应用程序
智能 NAND 管理:了解 NAND 的不同行为,并实时选择要与每个 NAND 设备一起使用的最佳参数集。
改进的性能:使用 ML 引擎可以通过识别 IO 请求模式、分配和调整数据路径资源、在本地内存中预取和保持数据就绪、使用高级缓存管理策略来提高性能、耐久性 和功率,并应用动态电源管理策略。
服务质量 (QoS):通过在 SSD 中分配适当的资源并确定其优先级,可以提供一致的性能。
其他用途:检测故障引起的故障转移并从中恢复,安全攻击的固件升级,执行其他自检和纠正,以及在不检测的情况下扩展到各种需求。
重要的是要记住,在设计 ML 引擎等硬件实现时,它必须足够通用才能开发应用程序不可知的 AI 和 ML 应用程序,但与此同时,平衡性能、功耗、成本和易用性也很重要损害数据完整性。
在端点存储设备(如 NVMe SSD)中采用 AI 和 ML 硬件引擎为数据中心打开了几个创造性的应用程序。这是一项备受期待的两项伟大技术的合并:AI 和 ML 以及 NVMe SSD。Microchip 很高兴地宣布在其最新的 Flashtec PCIe Gen 5 NVMe 4016 SSD 控制器中提供 ML 引擎。
文章源于Microchip-Ramyakanth Edupuganti