「特徴空間」はこちらにリダイレクトされます。
パターン認識や機械学習において、特徴ベクトルとは、ある対象を表す数値的特徴のn次元ベクトルである。 機械学習の多くのアルゴリズムでは、オブジェクトの数値表現が必要であり、そのような表現は処理と統計解析を容易にするからである。 画像を表現する場合、特徴量は画像の画素に対応し、テキストを表現する場合、特徴量はテキスト用語の出現頻度に対応する場合がある。 特徴ベクトルは、線形回帰などの統計処理で用いられる説明変数のベクトルと等価である。 特徴ベクトルはしばしば、予測のためのスコアを決定するために使用される線形予測関数を構築するために、内積を使用して重みと結合される。 特徴空間の次元を小さくするために、多くの次元削減技術が採用される。
より高度な特徴は、すでに利用可能な特徴から得られ、特徴ベクトルに加えられる。例えば、病気の研究では「年齢」という特徴が有用で、年齢 = 「死亡年」 – 「出生年」 と定義される。 このプロセスを特徴構築と呼ぶ。 素性構成とは、既存の素性の集合に構成的演算子を適用して、新しい素性を構成することである。 構成的演算子の例としては、等号条件 {=, ≠} のチェック、算術演算子 {+, -, ×, /}、配列演算子 {max(S), min(S), average(S)} のほか、ある条件 C を満たす特徴ベクトル S の特徴数を数える count(S,C) 、例えばある受入装置で一般化した他の認識クラスへの距離等、 より高度な演算子もある。 特徴量の構築は、特に高次元問題において、精度と構造理解の両方を向上させる強力な手段と考えられてきた。 その応用として、疾病の研究や音声からの感情認識などがある
。