目录
精准率和召回率的取舍
F1 Score
只有两者都高,则结果都高
from sklearn import datasets
digits = datasets.load_digits()
X = digits.data
y = digits.target.copy()
y[digits.target==9] = 1
y[digits.target!=9] = 0
from sklearn.model_selection import train_test_split
X_train, X_test, y_train, y_test = train_test_split(X, y, random_state=666)
from sklearn.linear_model import LogisticRegression
log_reg = LogisticRegression()
log_reg.fit(X_train, y_train)
log_reg.score(X_test, y_test)
Precision-Recall的平稳
两者相矛盾
这样行吗?
大于则为一类,小于则另一类
引入了超参数,可以平移决策边界
0右边为1,五角星为1,圆圈为0
精准率增大时召回率降低
精准率高,则对特别有把握时预测对,概率为90多的预测对,可以将概率低但对预测错
召回率高,降低判断, 10%的概率也说有病
程序实现
基于上面的程序
逻辑回归中默认封闭的国是基于0分类
将边界左右移动后的结果
来源:oschina
链接:https://my.oschina.net/u/4279681/blog/4308771