查看: 56|回复: 0

[OpenVINO™入门] 英特尔® OpenVINOTM 工具套件 2020 分 发版发行说明

[复制链接]

英特尔® OpenVINO™工具套件分发版:

英特尔® OpenVINO™工具套件2020分发版发行说明

作者:Andrey Z.,2020年2月5日发布

注:如欲查看2019版发行说明,请参见英特尔® OpenVINO™工具套件2019分发版发行说明

简介

英特尔® OpenVINO™工具套件分发版是一款全面的工具套件,支持快速开发可模拟人类视觉的应用和解决方案。该工具套件基于卷积神经网络(CNN),可在英特尔®硬件中扩展CV工作负载,实现卓越性能。它通过从边缘到云端部署的高性能AI和深度学习推理来加速应用。

英特尔® OpenVINO™工具套件分发版:

  • 支持从边缘到云端的深度学习推理。
  • 利用面向英特尔®CPU的通用API、英特尔®集成显卡、英特尔高斯神经加速器、英特尔®Movidius™神经计算棒(NCS)、英特尔®神经计算棒2、支持英特尔®Movidius™VPU的英特尔®视觉加速器设计、支持英特尔®Arria®10 FPGA速度等级1和速度等级2的英特尔®视觉加速器设计以及支持英特尔® Arria®10GXFPGA的英特尔®可编程加速卡,支持跨英特尔加速器的异构执行。
  • 通过易于使用的CV函数库和预优化的内核,加快产品上市速度。
  • 包括针对CV标准(包括OpenCV*和OpenCL™)的优化调用。

版本1中的全新和变更内容

要点综述

  • 英特尔®OpenVINO™工具套件分发版2020.1包含安全错误修复程序。用户应更新至最新版本。

  • 训练后优化可显著提升加速。使用模型量化的准确性几乎没有下降;同时简化了开发流程,无需重新训练模型或进行微调。

  • 扩展了对英特尔®Movidius™ VPU上自定义层的支持。这为专用边缘、媒体和视觉推理提供了更大的灵活性和定制性。

  • 面向INT8的低精度运行时。包括对"伪量化"的原生支持,对3D卷积层的支持以及减少的内存占用空间。支持开发人员在应用中添加更多深度学习模型。

  • 通过深度学习工作台最大限度进行性能优化并提升跨平台灵活性。通过对训练后优化工具、COCO数据集、新算法的支持以及开发人员体验和接口的改进, 简化开发和部署工作流程。如欲了解更多信息,请观看关于深度学习工作台的网络研讨会

  • 支持OpenModelZoo上的新演示模型,包括

    • 美国手语(ASL)识别
    • 基于MaskR-CNN的字符和文本检测
    • 3D人体姿态估计
  • 面向Windows*和Ubuntu*04操作系统的分发版中包含新的语音库和语音识别演示。这些新组件可支持并演示端到端(语音转文本)自动语音识别场景。

  • OpenVX*已从分发版中删除,请参见单独的英特尔®OpenVX分发版*实现页实现由于采用内核5.0的第九代智能英特尔®酷睿™处理器(以前称为CoffeeLake)集成显卡的性能相比5.3和4.15(延迟模式)有所下降,默认状态下切换至Linux*Ubuntu*18.04内核5.3。

  • 在Windows*上添加了对带英特尔®Movidius™Myriad™XC0VPU, MYDXx 1的AI边缘计算板的支持。

  • 请查看此文档页面,借助英特尔®平台提升深度学习模型性能

相比v.2019 R3.1的向后不兼容变更

  • <Install_root>\deployment_tools\inference_engine\samples\示例的推理引擎文件夹现在包括C、C++和Python*示例。C++示例的旧路径从
    <install_root>\deployment\_tools\inference\_engine\samples\变更为
    <install\_root>\deployment\_tools\inference\_engine\samples\cpp\

  • 从2019R1中引入的旧调准工具1.0已从软件包中删除,并更换为新工具。

  • CPU扩展库已删除。扩展已移入插件。

  • 已弃用API列表

模型优化器

常见变更

  • 默认情况下,模型优化器会生成IR版本10(除了生成IR版本7的Kaldi*框架),其操作语义已发生明显变化。"--generate_deprecated_IR_V7"命令行可用于生成较旧版本的IR。有关新操作集的规范,请参见文档。
  • "--tensorflow_use_custom_operations_config"已 重 命 名 为"-- transformations_config"。旧的命令行参数已弃用,以后的版本将删除这一参数。
  • 增加了使用"--input"命令行参数指定输入数据类型的功能。例如,"--inputplaceholder{i32}[13003003]"。请参考文档了解更多示例。
  • 在mode=‟training‟时,新增了对FusedBatchNorm操作的支持
  • 添加了优化转换,以删除无用的Concat+Split子图。
  • 许多图形转换已从模型优化器移至推理引擎。
  • 解决了networkX2.4+兼容性问题。

ONNX*

TensorFlow*

MXNet*

  • 添加了对以下MXNet拓扑的支持:

  • 添加了对以下MXNet操作的支持:

    • UpSamplingwithbilinearmode
    • Where
    • _arange
    • _contrib_AdaptiveAvgPooling2D
    • div_scalar
    • elementwise_sub
    • exp
    • expand_dims
    • greater_scalar
    • minus_scalar
    • repeat
    • slice
    • slice_like
    • tile

Kaldi*

推理引擎

常见变更

  • 添加了CAPI桥库,支持您将推理引擎运行时和插件集成到不使用且明确依赖C++的应用中。
  • 新增了对I420Blob的支持。支持预处理并使用I420Blob类传递数据,以便用

I420格式进行推理。推理引擎会在推理之前将数据自动转换为BGR。

  • 添加了RemoteBlob,允许对远程硬件上的内存进行寻址,以建立不依赖主机内存的管道
  • 启用了对Windows*操作系统的多路支持
  • 重新设计了INT8运行时(基于伪量化的int8流),以便提供更高的性能和更广泛的拓扑覆盖:
    • 集成的新图形表示
    • 实现图转换
    • 支持对称和非对称量化方案
    • 扩展的INT8支持以涵盖其他用例:3D模型、语义分割、实例分割
    • CPU和GPU具有相同的功能覆盖范围(功能、模型)
    • 相比以前使用的方法,通过实现优化,可以将性能提升1.2倍

CPU插件

  • 重新设计了(针对CPU)基于伪量化的int8流,这也为扩展到支持int8的其他平台奠定了基础。
  • 引入了对Windows的NUMA支持,通常重新设计了NUMA感知(现在依赖最新的线程构建模块(TBB)NUMA感知功能)。
    • 建议更新使用TBB的所有英特尔产品(例如面向Python*的英特尔®分发版),以避免与OpenVINO™结合使用时可能出现的TBB版本冲突。

GPU插件

  • 实现了面向OpenCL™和Direct3D*11框架的远程blob,支持 以GPU中的术语进行描述的内存

MYRIAD插件

  • 扩展了对VPU自定义层的支持

HDDL插件

  • 扩展了对VPU自定义层的支持
  • 支持Linux内核5.2及更低版本。

GNA插件

  • 增加了对TensorIterator层的支持
  • 增加了对Squeeze层的支持
  • 扩展了对Permute层的支持
  • 解决了LSTMCell层的问题
  • 提高了TDNN网络的准确性

FPGA插件

  • 引入了面向FPGA离线编译功能,使用compile_tool的HETERO:FPGA设备。编译工具生成二进制文件,并通过Core::Import导入到目标设备。

模型优化器和nGraph集成至推理引擎

  • OpenVINO™工具套件现在支持nGraph功能,用于图形构建API、图形转换引擎和Reshape,取代了以前的NNBuilderAPI产品。关于这些全新运行时功能的最新信息,请参见模型优化器推理引擎开发人员指南的新教程和更新。NN Builder API被标记为已弃用,并将在以后的版本中删除。

  • 此外,我们修改了内部中间表示中使用的操作集,并提供了扩展集,它涵盖了以前的OpenVINO™和nGraph操作,并添加了必要的语义,以便进一步加速从支持的框架中启用的模型。文档中提供了详细的opset规范和面向IR-vs-operations的新版本模式

  • 因此,模型优化器现在可以生成两种类型的IR:a)具有此扩展语义的IRV10(默认选项)b) IR V7(在MO的--generate_deprecated_IR_V7选项下), 它只是IR V6相对于先前版本的改进。

  • 我们希望将现有(并且已经支持的)模型重新转换为新语义(IRV10)的过程应尽可能地对最终用户透明,如果出于任何原因转换或推理过程失败,请尝试生成V7IR(具有上述选项),如果这种方法也无效,请向我们报告您的问题。

训练后优化工具

该工具的主要目标:

  • 将深度学习模型转换为专门针对所选优化类型(例如量化或稀疏性)的表示形式,而无需重新训练模型
  • 完成此类转换后,可以在支持此类优化的硬件上高效推理模型(例如以INT8

精度执行)

  • 该工具可扩展,以便支持多种量化算法:
    截屏2020-06-16 11.44.15.png
Dataset & Annotations 数据集和注释
Training Framework 训练框架
Trained Model Full Precision 训练模型全精度
STEP 0: Train model w/FW 步骤0:使用框架训练模型
Full Precision IR 全精度IR
Model Optimizer 模型优化器
Post-Training Optimization Toolkit Accuracy and performance check 训练后优化工具套件准确性和性能检查
Statistics 统计数字
JSON config JSON配置
ConfigsAccuracy Checker 配置精度检查器
Hardware spec 硬件规格
STEP 1: Post training optimization 步骤1:训练后优化
Optimized IR 优化的IR
OpenVINO Inference Engine OpenVINO推理引擎
STEP 2: Deploy model 步骤2:部署模型

该工具支持针对各类IA硬件的OpenVINO中间表示(IR)模型的量化:

  • 支持的算法列表:
    • 默认算法,本质上是一个运行三种基本算法的管道:
    • MinMax
    • 偏差校正(基于每通道量化误差的最小化,在朴素算法上运行)
    • 激活通道对齐(适用于对齐激活范围)
    • 准确性感知算法,可保留所得模型的准确性(保持准确性降至阈值以下)
  • 提供硬件特定配置
  • 提供每通道/每张量量化粒度
  • 通过预设机制支持对称/非对称量化
  • 针对MinMax、Default和无数据算法引入了两个默认预设,可简化用户体验
    • '性能'预设代表对称通道(包括权重和激活)量化
    • '准确度'预设代表对称权重+非对称激活量化
    • 逐层量化调整也是可能的,可以将某些层纳入到'忽略范围'中,以跳过这些层的量化。

工具的获取地址为

<install_root>\deployment_tools\tools\post_training_optimization_toolkit。安装并运行setup.py后,该工具套件可在命令行中通过'pot'别名获取。

深度学习工作台

  • 添加了对Int8训练后优化工具的支持。目前公开了两种新算法(最高性能和最高准确度)
  • 添加了对COCO数据集的支持
  • 多个UX/UI改进,包括每层表视图的新外观和风格

OpenCV*

  • 版本变为为4.2.0。

  • 尝试增加对推理引擎的nGraphAPI的支持(可以通过cv::dnn::setInferenceEngineBackendType()调用进行选择)。

  • 为G-API添加了推理和流扩展:OpenCVG-API现在可以处理完整的视频分析管道,包括视频捕捉/解码、图像处理、CV和DL评分。

  • 这些功能有新教程:人脸分析人脸美化管道。

示例和教程

  • CPU扩展库已删除。
  • <install_root>\deployment_tools\inference_engine\samples\示例的推理引擎文件夹现在包括C、C++和Python*示例。
  • 添加了展示语音识别管道的端到端演示:用于波形文件转录的离线演示和用于实时语音识别的GUI演示。
  • 添加了示例,以演示推理引擎C-API用法

工具

  • 添加了用于语音处理管道的功能提取器和解码器工具。添加了一个用于将Kaldi*语言模型转换为解码器工具所用格式的工具。

Open Models Zoo

  • 扩展了OpenModelZoo,其中包括经过CNN预训练的其他模型和预先生成的中间表示(.xml+ .bin):
    • [新]asl-recognition-0003
    • [新] person-detection-asl-0001
    • [新] person-reidentification-retail-0200
    • [新] resnet18-xnor-binary-onnx-0001
    • [新] text-spotting-0001-detector
    • [新] text-spotting-0001-recognizer-decoder
    • [新] text-spotting-0001-recognizer-encoder
    • [新] person-reidentification-retail-0103.替代2019R3模型。
    • [新] person-reidentification-retail-0107.替代2019R3模型。
  • 添加了新的演示应用:
    • 3D人体姿态估计
    • 交互式人脸检测
    • 多摄像头多人跟踪
    • 支持YOLOv3的多通道对象检测
    • 美国手语(ASL)识别
    • 基于CenterNet的物体检测
    • 单人姿态估计
    • 文本识

模型下载器工具配置文件放置在每个模型的单独文件夹中,以改进用户体验并简化分布流程(在同时开发/合并多个模型时,减少合并冲突)。该列表已扩展为支持以下Caffe2*、TensorFlow*、MXNet*和PyTorch*格式的公共模型:

模型名称 框架
efficientnet-b0 TensorFlow
efficientnet-b0-pytorch PyTorch
efficientnet-b0_auto_aug TensorFlow
efficientnet-b5 TensorFlow
efficientnet-b5-pytorch PyTorch
efficientnet-b7-pytorch PyTorch
efficientnet-b7_auto_aug TensorFlow
face-recognition-mobilefacenet-arcface MXNet
face-recognition-resnet100-arcface MXNet
face-recognition-resnet34-arcface MXNet
face-recognition-resnet50-arcface MXNet
densenet-121-caffe2 Caffe2
resnet-50-caffe2 Caffe2
squeezenet1.1-caffe2 Caffe2
vgg19-caffe2 Caffe2
ctdet_coco_dlav0_384 ONNX
ctdet_coco_dlav0_512 ONNX
brain-tumor-segmentation-0002 ONNX
human-pose-estimation-3d-0001 PyTorch
single-human-pose-estimation-0001 PyTorch
vehicle-license-plate-detection-barrier-0123 TensorFlow

预览功能术语

预览功能是为了获得早期开发人员反馈而推出的功能。我们鼓励大家提出与预览功能相关的评论 、问题和建议 ,并通过https://software.intel.com/en-us/forums/computer-vision提交给论坛。

预览功能的关键属性:

  • 旨在实现高质量实现
  • 无法保证这些功能在未来是否存在,也无法保证兼容性。

注:预览功能将来可能会更改。未来版本中可能会删除或更改。预览功能更改不需要弃用和删除过程。不建议在生产代码库中使用预览功能。

已知问题

JIRA ID 描述 组件 解决办法
#1 许多问题尚未解决,请参见英特尔® OpenVINO™工具套件2019分发版发行说明中的 "已知问题"部分。 全部
24811 [CPU-VNNI] license-plate- recognition-barrier-0007、efficientnet-b0和person- reidentification-retail-003模型上出现分段错误。基准应用在执行结束时因分段错误而崩溃。 IE CPU插件 此问题有三种已知的解决方法:1. 使用OMP并行化构建IE,2. 使用JITGEMM实现而非MKL构建IE, 3.使用"完整"的TBBMKL库,而非预构建的mkltiny-tbb
24517 Specialize_function为包含Split操作的函数添加了冗余操作 nGraph内核
25417 FQ层的OL和OH参数不正确 MO TensorFlow
23985 文档中指定的用于转换LM1B模型的命令行参数错误 MO TensorFlow
25657 在多个网络加载/卸载周期 中,GPU插件中可能发生内存泄漏 IE GPU插件 使用GPU插件时尝试避免持续的网络加载/卸载情况
25087 类似MobileNet的模型的GPU插件中可能会出现性能下降 IE GPU插件
25358 GT3e/GT4e/ICL NUC平台的GPU插件中可能会出现一些性能下降 IE GPU插件
25020 如果将多个拓扑加载到一个CPU插件中,则可能会产生错误的输出数据。该问题需要满足以下几个条件:使用IRv10;多个模型被加载到一个插件中 IE CPU插件 每个拓扑使用不同的插件实例。
25940 可能会出现TBB二进制文件不匹配的情况。根据错误加载的TBB模块的版本,可能导致崩溃、减速,或是在加载过程中丢失符号。 全部 您应确保从OpenVINO软件包中加载了正确版本的TBB。查看您的PATH/LD_LIBRARY_PATH环境变量。TBB的OpenVINO路径如果您将某些模块与TBB一起使用,请确保之前已加载OpenVINO。如果是python,务必先执行" import openvino"模块。
24709 重新训练的TensorFlow对象检测API RFCN模型出现了明显的精度下降。只有经过预训练的模型才能产生正确的推理结果。 全部 如果需要重新训练模型,请使用Faster-RCNN模型,而不是RFCN模型。
23705 在GNA上运行异构插件并在CPU上回退时,推理可能会中止。 IE GNA插件 使用CPU/GNA异构模式时,不要使用异步API
26585 语音示例可能会显示错误的比较结果和模型(包括LSTM单元)参考分数 示例
24523 CPU上的asl-recognition- xxxx模型性能低下 IE CPU插件
23198 在常数子图中推理OneHot层可能不正确。GNMT拓扑可能会产生错误的输出。 全部
26561 英特尔®神经计算棒2和支持英特尔® Movidius™ VPU的英特尔®视觉加速器设计的„semantic-segmentation-adas-0001‟模型出现性能下降 IE MyriadX插件,IE HDDL插件 为了获得更好的性能,请使用以前版本的OpenVINO中的模型
26560 英特尔®神经计算棒2和支持英特尔® Movidius™ VPU的英特尔®视觉加速器设计的„deeplabv3‟模型出现性能下降 IE MyriadX插件,IE HDDL插件 为了获得更好的性能,请使用以前版本的OpenVINO中的模型
26353 英特尔®神经计算棒2和支持英特尔® Movidius™ VPU的英特尔®视觉加速器设计的deeplab_v3模型出现数据集准确性问题 IE MyriadX插件,IE HDDL插件 为了获得准确的结果,请使用以前版本的OpenVINO中的模型
26384 英特尔®神经计算棒2和支持英特尔® Movidius™ VPU的英特尔®视觉加速器设计的„refinedet-resnet-101‟模型出现性能下降 IE MyriadX插件,IE HDDL插件 为了获得更好的性能,请使用以前版本的OpenVINO中的模型
26129 TensorFlow Yolo-v3模型在带 英 特 尔® Movidius™ Myriad™ X C0 VPU, MYDXx 1的AI边缘计算板上出现故障 IE MyriadX插件 请使用其他版本的yolo网络
26700 带英特尔® Movidius™ VPU的英特尔®视觉加速器设计与Linux内核5.3搭配使用 IE HDDL插件 不支持此内核版本,请使用5.2或更低版本。
22108 在固件启动过程中停止应用可能会导致设备停止运行英特尔®神经计算棒2 IE MyriadX插件 启动设备时也不要按Ctrl+C。
23738 GNA插件不能正确使用Core::SetConfig和Core::GetConfig方法。 IE GNA插件 使用Core::LoadNetwork方法的配置参数

此版本中包含

英特尔® OpenVINO™工具套件分发版提供以下版本:

  • 面向Windows*的英特尔®OpenVINO™工具套件分发版
  • 面向Linux*的英特尔®OpenVINO™工具套件分发版
  • 面向Linux*并支持FPGA的英特尔®OpenVINO™工具套件分发版
  • 面向macOS*的英特尔®OpenVINO™工具套件分发版
组件 许可 位置 Windows Linux **面向*FPGA的Linux macOS
深度学习模型优化器适用于训练后模型的模型优化工具 Apache 2.0 `<install_root>/deployment_tools/model_optimizer/*
深度学习推理引擎将推断集成至应用逻辑的统一API推理引擎头文件 EULA Apache 2.0 <install_root>/deployment_tools/inference_engine/\*<install_root>/deployment_tools/inference_engine/include/*`
OpenCV*库针对英特尔®硬件编译的OpenCV社区版本 BSD `<install_root>/opencv/*
英特尔® Media SDK 库** (开源版)**简化OpenVINO™工具套件和英特尔® Media SDK之间的集成。 MIT `<install_root>/../mediasdk/*
面向OpenCL™的英特尔®显卡计算运算时 提高可用性,https://github.com/intel/compute-runtime MIT `<install_root>install_dependencies/  install_NEOOCL driver.sh - helps to install OpenCL Runtime, default location/usr/local/lib/intel-opencl.deb - driver for Ubuntu\ intel-opencl\*.rpm - driverforCentOS intel- - driver's dependencies
英特尔® FPGA深度学习加速套件,包含预编译的比特流实现最常见的CNN拓扑结构,以支持图像分类,并简化人工智能开发人员采用FPGA的过程。包括预编译的比特流样本,用于支持英特尔®Arria®10GX FPGA 的英特尔® 可编程加速卡和支持英特尔® Arria® 10 FPGA (Mustang- F100-A10)速度等级1和速度等级2的英特尔® 视觉加速器设计 英特尔OBL FPGA SDK 18.1 `<install_root>\>/bitstreams/a10_dcp_bit streams/<install_root>/bitstreams/a10_vision_design_sg1_bitstrea ms/<install_root>/bitstreams/a10_vision_design_sg2_bitstrea ms/*
面向 OpenCL™ 软件技术的英特尔® FPGA SDK面向 OpenCL™ 的英特尔®FPGA RTE 提 供了实用程序、主机 运行时库、驱动程序 以及 RTE 特定库和文件 英特尔OBL FPGA SDK 18.1 /opt/altera/aocl- 否 pro-rte/* <user>/intelFPGA_ pro/<version>/*
OpenVINO™ 工具套 件文档 开发人员指南和其他 文档 可从OpenVINO™工具套件产品套件获取,不属于安装程序包。
Open Model Zoo来自https://github.com/op encv/open_model_zoo 的模型文档;可以 使用模型下载器下载 二进制形式的模型 Apache 2.0 <install_root>/depl oyment_tools/open _model_zoo/*
推理引擎示例 说明推理引擎 API 用 法的示例,展示如何 在应用中使用英特尔 ® OpenVINO™ 工具 套件分发版的各项功 能的演示 Apache 2.0 <install_root>/deployment_tools/ inference_engine/s amples/*
深度学习工作台 可帮助开发人员通过 工具套件的模型优化 器运行深度学习模型、将其转换为 INT8、对其进行微 调、运行推理并测量 准确性的工具。 EULA <install_root>/deployment_tools/tools/ workbench/*
nGraph面向深度学习的开源C++库、编译器和运行时https://www.ngraph.ai/ Apache 2.0 <install_root>/deployment_tools/ngra ph/*
训练后优化工具套件采用不需要重新训练(例如训练后量化) 的特定方法,将模型转化为更适合硬件的表示。 EULA <install_root>/deployment_tools/ tools/post_training _optimization_toolkit/*
语音库和端到端语音演示 GNA软件许可协议 <install_root>/data_processing/audio/ speech_recognition/*

在何处下载此版本

https://software.intel.com/en-us/OpenVINO-toolkit/choose-download

系统要求

英特尔® CPU处理器

硬件
  • 支持英特尔SSE4.1的英特尔®凌动®处理器
  • 采用英特尔®核芯显卡的英特尔®奔腾®处理器N4200/5、N3350/5、N3450/5
  • 第六代—第十代英特尔®酷睿™处理器
  • 英特尔®至强®处理器E3、E5和E7产品家族(以前称为SandyBridge、Ivy Bridge、Haswell和Broadwell)
  • 英特尔®至强®可扩展处理器(以前称为Skylake和Cascade Lake) 操作系统
  • Ubuntu*18.04长期支持(LTS),64位
  • Windows* 10,64位
  • macOS* 10.14,64位

英特尔®处理器显卡(GEN显卡)

硬件
  • 英特尔®核芯显卡
  • 英特尔®超核芯显卡
  • 英特尔®锐炬®Pro显卡

注: 英特尔® OpenVINO™工具套件分发版中不包含安装此硬件所需的驱动程序

注: 英特尔®至强®处理器需采用支持处理器显卡的芯片组。所有处理器都不包含处理器显卡。如欲了解有关您的处理器的信息,请访问https://ark.intel.com/

操作系统
  • Ubuntu*18.04长期支持(LTS),64位
  • Windows* 10,64位
  • Yocto* 3.0,64位

英特尔®高斯神经加速器

操作系统
  • Ubuntu*18.04长期支持(LTS),64位
  • Windows* 10,64位

英特尔 ® FPGA处理器

注: 仅适用于支持FPGA、面向Linux的英特尔® OpenVINO™工具套件分发版

硬件

  • 支持英特尔®Arria®10FPGA(Mustang-F100-A10)速度等级1和速度等级2的英特尔®视觉加速器设计

  • 采用英特尔®Arria®10GXFPGA的英特尔®可编程加速卡(采用英特尔® Arria®10GXFPGA的英特尔®PAC)

操作系统

  • Ubuntu*18.04长期支持(LTS),64位

英特尔 ® FPGA处理器

装有相应操作系统的硬件
  • 采用英特尔®Movidius™视觉处理单元(VPU)的英特尔®视觉加速器设计:
    • Ubuntu*18.04长期支持(LTS),64位(Linux内核5.2及更低版本)
    • Windows* 10,64位
    • CentOS* 7.4,64位
  • 英特尔®Movidius™神经计算棒和英特尔®神经计算棒2:
    • Ubuntu*18.04长期支持(LTS),64位
    • CentOS* 7.4,64位
    • Windows* 10,64位
    • Raspbian*(仅限部署机)
  • 带英特尔®Movidius™Myriad™XC0VPU,MYDXx1的AI边缘计算板:
    • Windows* 10,64位

法律信息

您不得使用或方便他人使用本文档对此处描述的相关英特尔产品作任何侵权或其他法律分析。您同意就此后起草的任何专利权利(包括此处披露的主题)授予英特尔非排他性的免版税许可。

本文件不构成对任何知识产权的授权,包括明示的、暗示的,也无论是基于禁止反言的原则或其他。

此处提供的所有信息如有更改,恕不另行通知。请联系您的英特尔代表,了解最新的英特尔产品规格和路线图。

所述产品可能包含设计缺陷或错误(即勘误表),这可能会使产品与已发布的技术规格有所偏差。英特尔提供最新的勘误表备索。

英特尔技术的特性和优势取决于系统配置,并需要借助兼容的硬件、软件或服务来实现。如欲了解更多信息,请访问http://www.intel.cn/,或联系OEM或零售商。任何计算机系统都无法提供绝对的安全性。

英特尔、Arria、酷睿、Movidius、至强、OpenVINO和英特尔标识是英特尔公司在美国和/或其他国家的商标。

OpenCL和OpenCL标识是Apple Inc.的商标,经Khronos许可授权使用。

*其他的名称和品牌可能是其他所有者的资产。

©2020英特尔公司版权所有。保留所有权利。


前往了解DFRobot行业AI开发者大赛
LPAi.jpg
英特尔® OpenVINO™ 工具套件分发版:点击下载


高级模式
您需要登录后才可以回帖 登录 | 立即注册

本版积分规则

为本项目制作心愿单
购买心愿单
心愿单 编辑
[[wsData.name]]

硬件清单

  • [[d.name]]
btnicon
我也要做!
点击进入购买页面
上海智位机器人股份有限公司 沪ICP备09038501号-4

© 2013-2020 Comsenz Inc. Powered by Discuz! X3.4 Licensed

mail