「単純Bayes」プラットフォームは、カテゴリカルな応答変数の水準のいずれかに、各データ行を分類します。この「カテゴリカルな応答変数の水準」は、「クラス」とも呼ばれています。また、分類に使用される説明変数は、データマイニングに関する文献では、「特徴(feature)」とも呼ばれています。
単純Bayes法は、特徴で条件付けたときの、各クラスに属する条件付き確率(事後確率)を計算します。なお、特徴が連続尺度の場合は、1変量正規分布の密度関数が使われます。単純Bayes法では、「各クラスで条件付けたときに、特徴が互いに独立である」と仮定します (このような単純な仮定を置いているので、この手法は「単純(ナイーブ)」と呼ばれています)。各データ行は、特徴で条件付けたときの条件付き確率(事後確率)が最大となっているクラスに分類されます。Hastie et al.(2009)を参照してください。
各データ行に対して、各クラスのスコアが計算されます。このスコアは、学習セットにおいて該当のクラスに属しているものの割合(事前確率)に、該当のクラスで条件付けたときの各特徴の条件付き確率の総積を掛けたものです。特徴で条件付けたときのあるクラスに属する条件付き確率(事後確率)は、こうして求められた各クラスのスコアを、全クラスのそれらのスコアの和で割ったものです。そして、各データ行は、この事後確率が最大となっているクラスに分類されます。