逻辑斯特回归和SVM 对比 对于 LogisticRegression 和 LinearSVC,决定正则化强度的权衡参数叫作 C。 C 值越 # 大,对应的正则化越弱。 换句话说,如果参数 C 值较大,那么 LogisticRegression 和 # LinearSVC 将尽可能将训练集拟合到最好,而如果 C 值较小,那么模型更强调使系数向量 # (w)接近于 0。 from sklearn . linear_model import LogisticRegression from sklearn . svm import LinearSVC X , y = mglearn . datasets . make_forge ( ) # 画子图 fig , axes = plt . subplots ( 1 , 2 , figsize = ( 10 , 3 ) ) # 逻辑斯特回归和SVM for model , ax in zip ( [ LinearSVC ( ) , LogisticRegression ( ) ] , axes ) : clf = model . fit ( X , y ) mglearn . plots . plot_2d_separator ( clf , X , fill = False , eps = 0.5 , ax = ax , alpha