InstanceNormalization

InstanceNormalization - 22

版本

此版本的運算子自版本 22 開始可用。

摘要

執行如論文 https://arxiv.org/abs/1607.08022 中所述的實例正規化。

y = scale * (x - mean) / sqrt(variance + epsilon) + B,其中 mean 和 variance 是針對每個通道的每個實例計算的。

屬性

  • epsilon - FLOAT (預設為 '1e-05')

    用於避免除以零的 epsilon 值。

輸入

  • input (異質) - T

    來自上一個運算子的輸入資料張量;影像案例的維度為 (N x C x H x W),其中 N 是批次大小,C 是通道數,H 和 W 是資料的高度和寬度。對於非影像案例,維度的形式為 (N x C x D1 x D2 … Dn),其中 N 是批次大小。

  • scale (異質) - T

    大小為 C 的輸入一維縮放張量。

  • B (異質) - T

    大小為 C 的輸入一維偏差張量。

輸出

  • output (異質) - T

    與輸入形狀相同的輸出張量。

類型約束

  • T 在 ( tensor(bfloat16), tensor(double), tensor(float), tensor(float16) ) 中

    將輸入和輸出類型限制為浮點數張量。

InstanceNormalization - 6

版本

此版本的運算子自版本 6 開始可用。

摘要

執行如論文 https://arxiv.org/abs/1607.08022 中所述的實例正規化。

y = scale * (x - mean) / sqrt(variance + epsilon) + B,其中 mean 和 variance 是針對每個通道的每個實例計算的。

屬性

  • epsilon - FLOAT (預設為 '1e-05')

    用於避免除以零的 epsilon 值。

輸入

  • input (異質) - T

    來自上一個運算子的輸入資料張量;影像案例的維度為 (N x C x H x W),其中 N 是批次大小,C 是通道數,H 和 W 是資料的高度和寬度。對於非影像案例,維度的形式為 (N x C x D1 x D2 … Dn),其中 N 是批次大小。

  • scale (異質) - T

    大小為 C 的輸入一維縮放張量。

  • B (異質) - T

    大小為 C 的輸入一維偏差張量。

輸出

  • output (異質) - T

    與輸入形狀相同的輸出張量。

類型約束

  • T 在 ( tensor(double), tensor(float), tensor(float16) ) 中

    將輸入和輸出類型限制為浮點數張量。

InstanceNormalization - 1

版本

此版本的運算子自版本 1 開始可用。

摘要

執行如論文 https://arxiv.org/abs/1607.08022 中所述的實例正規化。

y = scale * (x - mean) / sqrt(variance + epsilon) + B,其中 mean 和 variance 是針對每個通道的每個實例計算的。

屬性

  • consumed_inputs - INTS :

    舊版最佳化屬性。

  • epsilon - FLOAT (預設為 '1e-05')

    用於避免除以零的 epsilon 值,預設為 1e-5f。

輸入

  • input (異質) - T

    形狀為 NCHW 的輸入 4 維張量。

  • scale (異質) - T

    大小為 C 的輸入一維縮放張量。

  • B (異質) - T

    大小為 C 的輸入一維偏差張量。

輸出

  • output (異質) - T

    與輸入形狀相同的輸出 4 維張量。

類型約束

  • T 在 ( tensor(double), tensor(float), tensor(float16) ) 中

    將輸入和輸出類型限制為浮點數張量。