Partager via


series_cosine_similarity()

S’applique à : ✅Microsoft Fabric

Calculez la similarité du cosinus de deux vecteurs numériques.

La fonction series_cosine_similarity() prend deux séries numériques comme entrée et calcule leur similarité cosinus.

Syntaxe

series_cosine_similarity( série1, série2, [*magnitude1, [*magnitude2]])

En savoir plus sur les conventions de syntaxe.

Paramètres

Nom Type Requise Description
série1, série2 dynamic ✔️ Tableaux d’entrée avec des données numériques.
magnitude1, magnitude2 real Magnitude facultative des premier et deuxième vecteurs respectivement. La magnitude est la racine carrée du produit de point du vecteur avec lui-même. Si l’ampleur n’est pas fournie, elle sera calculée.

Retours

Retourne une valeur de type real dont la valeur est la similarité cosinus de la série1 avec la série2. Dans le cas où la longueur des deux séries n’est pas égale, la plus longue est tronquée à la longueur du plus court. Tout élément non numérique de la série d’entrée est ignoré.

Remarque

Si un ou les deux tableaux d’entrée sont vides, le résultat est null.

Optimisation des performances

Pour améliorer les performances et réduire les exigences de stockage lors de l’utilisation de cette fonction, envisagez d’utiliser la Vector16 stratégie d’encodage pour stocker des vecteurs à virgule flottante qui ne nécessitent pas de précision de 64 bits, comme les incorporations de vecteurs ML. Le Vector16 profil, qui utilise la représentation à virgule flottante Bfloat16 , peut optimiser considérablement l’opération et réduire la taille de stockage d’un facteur de 4. Pour plus d’informations sur la stratégie d’encodage Vector16 , reportez-vous aux types de stratégie d’encodage.

Exemple

datatable(s1:dynamic, s2:dynamic)
[
    dynamic([0.1,0.2,0.1,0.2]), dynamic([0.11,0.2,0.11,0.21]),
    dynamic([0.1,0.2,0.1,0.2]), dynamic([1,2,3,4]),
]
| extend cosine_similarity=series_cosine_similarity(s1, s2)
s1 s2 cosine_similarity
[0.1,0.2,0.1,0.2] [0.11,0.2,0.11,0.21] 0.99935343825504
[0.1,0.2,0.1,0.2] [1,2,3,4] 0.923760430703401