论文部分内容阅读
在二分类判别中,LDA(线性判别)与LR(Logistic回归)是应用最为广泛的两种重要方法。设随机变量x来自于一个二分类混合总体,两个类别分别标记为y=1和y=0,来自两个类别的先验概率为π1,π0,π1+π0=1。我们则根据x的取值来进行判别归类。Eguchi S.&Copas J.(2002)提出了一个风险函数,该风险函数由两个以线性判别函数S为自变量的惩罚函数U(s),V(s)构成,这个惩罚函数要具备两个特性:当y=0(y=1)时,惩罚函数的取值会随S的增大而增大;当y=1(y=0)时,会随S的增大而减小。本文依据N-P引理中的对数优势比率,在待判二分类总体服从正态或指数分布情况下,得到LDA与LR线性形式的对数优势比函数,通过极小化上述风险函数确定线性优势比函数的最优阈值,建立新的判别准则。并证明了当惩罚函数取某种特殊形式时,与最小误判率和最高判别精度的经典线性判别方法和经典的Logistic回归判别方法完全等价,说明新的分类方法更具有一般性。同时,通过数值模拟和实例分析比较了 LDA与LR在同一无差别惩罚风险函数下的判别效果。结果显示,当样本数据满足同协方差不同均值向量的假设条件时,LDA的效果更好,否则LR的效果更好。