extractPixels: Machine Learning-Transformation zum Extrahieren von Pixeldaten
Extrahiert die Pixelwerte aus einem Bild.
Verwendung
extractPixels(vars, useAlpha = FALSE, useRed = TRUE, useGreen = TRUE,
useBlue = TRUE, interleaveARGB = FALSE, convert = TRUE, offset = NULL,
scale = NULL)
Argumente
vars
Eine benannte Liste von Zeichenvektoren von Eingabevariablennamen und der Name der Ausgabevariablen. Beachten Sie, dass die Eingabevariablen identischen Typs sein müssen. Für 1:1-Zuordnungen zwischen Eingabe- und Ausgabevariablen kann ein benannter Zeichenvektor verwendet werden.
useAlpha
Gibt an, ob der Alphakanal verwendet werden soll. Der Standardwert ist FALSE
.
useRed
Gibt an, ob der rote Kanal verwendet werden soll. Der Standardwert ist TRUE
.
useGreen
Gibt an, ob der grüne Kanal verwendet werden soll. Der Standardwert ist TRUE
.
useBlue
Gibt an, ob der blaue Kanal verwendet werden soll. Der Standardwert ist TRUE
.
interleaveARGB
Gibt an, ob jeder Kanal getrennt oder in ARGB-Reihenfolge zusammengesetzt werden soll. Dies könnte z. B. wichtig sein, wenn Sie ein Convolutional Neural Network (faltendes neuronales Netzwerk) trainieren, da sich dies auf die Form des Kernels, Schritts usw. auswirken würde.
convert
Gibt an, ob eine Konvertierung in eine Gleitkommazahl erfolgen soll. Der Standardwert ist FALSE
.
offset
Gibt den Versatz (vor dem Skalieren) an. Dies erfordert convert = TRUE
. Standardwert: NULL
.
scale
Gibt den Skalierungsfaktor an. Dies erfordert convert = TRUE
. Standardwert: NULL
.
Details
extractPixels
extrahiert die Pixelwerte aus einem Bild. Die Eingabevariablen sind Bilder der gleichen Größe, in der Regel die Ausgabe einer resizeImage
-Transformation. Bei der Ausgabe handelt es sich um Pixeldaten in Vektorform, die in der Regel als Features für ein Lernmodul verwendet werden.
Wert
Ein maml
-Objekt, das die Transformation definiert.
Autor(en)
Microsoft Corporation Microsoft Technical Support
Beispiele
train <- data.frame(Path = c(system.file("help/figures/RevolutionAnalyticslogo.png", package = "MicrosoftML")), Label = c(TRUE), stringsAsFactors = FALSE)
# Loads the images from variable Path, resizes the images to 1x1 pixels and trains a neural net.
model <- rxNeuralNet(
Label ~ Features,
data = train,
mlTransforms = list(
loadImage(vars = list(Features = "Path")),
resizeImage(vars = "Features", width = 1, height = 1, resizing = "Aniso"),
extractPixels(vars = "Features")
),
mlTransformVars = "Path",
numHiddenNodes = 1,
numIterations = 1)
# Featurizes the images from variable Path using the default model, and trains a linear model on the result.
model <- rxFastLinear(
Label ~ Features,
data = train,
mlTransforms = list(
loadImage(vars = list(Features = "Path")),
resizeImage(vars = "Features", width = 224, height = 224), # If dnnModel == "AlexNet", the image has to be resized to 227x227.
extractPixels(vars = "Features"),
featurizeImage(var = "Features")
),
mlTransformVars = "Path")