内容字号:默认大号超大号

段落设置:段首缩进取消段首缩进

字体设置:切换到微软雅黑切换到宋体

百度云_华为手机云相册不见了_折扣

2021-06-09 16:13 出处:欧普曼云计算 人气: 评论(0

百度云_华为手机云相册不见了_折扣

在开发机器学习模型时,企业软件公司,快速的迭代和较短的训练时间是至关重要的。为了让您或您的数据科学团队达到更高的精确度,为了探索不同的选择,买云服务器,您可能需要运行数十或数百个训练迭代。

越来越多的组织使用张量处理单元(Cloud TPU)来训练复杂的模型,因为它们能够将训练时间从几天减少到几小时(大约减少10倍),训练成本从数千美元减少到1000美元几十美元(大约减少100倍)。然后,云服务器商,您可以将经过训练的模型部署到cpu、gpu或tpu,以便在服务时间进行预测。在某些响应延迟非常关键的应用程序中,例如机器人或自动驾驶汽车,您可能需要进行额外的优化。例如,大数据存储技术有哪些,许多数据科学家经常使用NVIDIA的TensorRT来提高gpu上的推理速度。在这篇文章中,我们将通过培训和服务对象检测模型,淘客引流,并演示如何使用TensorFlow的全面和灵活的功能集来执行每一步,无论您选择哪种硬件平台。

TensorFlow模型由许多负责培训和预测的操作(Op)组成,例如,告诉我们一个人是否正在过马路。大多数TensorFlow操作与平台无关,可以在CPU、GPU或TPU上运行。事实上,如果你使用TPUEstimator实现你的模型,你可以在云TPU上运行它,只需将use\TPU标志设置为True,然后在CPU或GPU上运行它,将标志设置为False。

NVIDIA已经开发了TensorRT(一个推理优化库),用于在GPU上进行高性能推理。TensorFlow(TF)现在包括TensorRT集成(TF-TRT)模块,可以将模型中的TensorFlow操作转换为TensorRT操作。通过这种集成,您可以在TPU上训练您的模型,然后使用TF-TRT将训练好的模型转换为GPU优化的模型以提供服务。在下面的示例中,我们将在云TPU上训练最先进的对象检测模型RetinaNet,将其转换为TensorRT优化版本,并在GPU上运行预测。

您可以对任何TPU模型使用以下说明,但在本指南中,我们选择TensorFlow TPU RetinaNet模型作为示例。因此,您可以按照本教程开始在cloudtpu上训练RetinaNet模型。您可以跳过标题为"培训时评估模型(可选)"的部分1.

对于您刚刚培训的RetinaNet模型,如果您查看云存储中的模型目录(${model\u DIR}),您将看到多个模型检查点。请注意,检查点可能取决于用于训练模型的体系结构,不适合将模型移植到不同的体系结构。

TensorFlow提供了另一种模型格式SavedModel,您可以使用它来保存和恢复模型,而不依赖于生成模型的代码。SavedModel与语言无关,包含将模型从TPU移植到GPU或CPU所需的所有内容(图形、变量和元数据)。

在model目录中,您应该找到一个带有时间戳的子目录(采用Unix epoch时间格式,例如1546300800 for 2019-01-01-12:00:00 GMT),其中包含导出的SavedModel。具体来说,您的子目录包含以下文件:

训练脚本将您的模型图存储为已保存_型号.pb以协议缓冲区(protobuf)格式,并将变量存储在适当命名的variables子目录中。生成一个SavedModel需要两个步骤,首先定义一个服务输入接收器,然后导出一个SavedModel.

在服务时,服务输入接收器函数接收推理请求并为模型做准备,就像在训练时一样,输入函数input_fn接收训练数据并为模型做准备。对于RetinaNet,以下代码定义服务输入接收器功能:

分享给小伙伴们:
本文标签: 百度华为手机相册见了折扣

相关文章

评论

发表评论愿您的每句评论,都能给大家的生活添色彩,带来共鸣,带来思索,带来快乐。

签名: 验证码: 点击我更换图片

评论列表