# 欠拟合 训练不够

# 过拟合 训练太够了 噪声也学进去了

# 一般来说w的值越大 误差越大 w的值小误差小 但也不能太小 不然失去了应用的意义

# 防止 欠拟合和过拟合的方式 就岭回归和拉索回归  正则化

# 本质上就是牺牲模型在训练集上的正确率来提高推广、泛化能力,W在数值上越小越好,这样能抵抗数值的扰动。同时为了保证模型的正确率W又不能极小。

# **因此将原来的损失函数加上一个惩罚项使得计算出来的模型W相对小一些,就是正则化**。

# 这里面损失函数就是原来固有的损失函数,比如回归的话通常是MSE,然后在加上一部分惩罚项来使得计算出来的模型W相对小一些来带来泛化能力。

# 岭回归Ridge

# 在 原来的均方差函数的基础上加一个 各个W的欧式距离 这样让均方差最小的同时 还要让各个W之间的距离变小也就是 w的值要小 变相实现了减小w的值 但准确率肯定降了

# 特点:

# - 岭回归不会将权重压缩到零,这意味着所有特征都会保留在模型中,但它们的权重会被缩小。

# - 适用于特征间存在多重共线性的情况。

# - 岭回归产生的模型通常更为平滑,因为它对所有特征都有影响。


 

# 拉索回归Lasso

# 在 原来的均方差函数的基础上加一个 各个W的曼哈顿距离 这样让均方差最小的同时 还要让各个W之间的距离变小也就是 w的值要小 变相实现了减小w的值 但准确率肯定降了

# 特点:

# - 拉索回归可以将一些权重压缩到零,从而实现特征选择。这意味着模型最终可能只包含一部分特征。

# - 适用于特征数量远大于样本数量的情况,或者当特征间存在相关性时,可以从中选择最相关的特征。

# - 拉索回归产生的模型可能更简单,因为它会去除一些不重要的特征。

# API

# 具有L2正则化的线性回归-岭回归。

# sklearn.linear_model.Ridge()

# 1 参数:

# (1)alpha, default=1.0,正则项力度 惩罚力度 各w的距离的值  惩罚力度小准确率高 鲁棒性差

# (2)fit_intercept, 是否计算偏置, default=True

# (3)solver, {‘auto’, ‘svd’, ‘cholesky’, ‘lsqr’, ‘sparse_cg’, ‘sag’, ‘saga’, ‘lbfgs’}, default=’auto’

# 当值为auto,并且数据量、特征都比较大时,内部会随机梯度下降法。

# (4)normalize:,default=True, 数据进行标准化,如果特征工程中已经做过标准化,这里就该设置为False

# (5)max_iterint, default=None,梯度解算器的最大迭代次数,默认为15000

# 2 属性

# coef_ 回归后的权重系数

# intercept_ 偏置

# 说明:SGDRegressor也可以做岭回归的事情,比如SGDRegressor(penalty='l2',loss="squared_loss"),但是其中梯度下降法有些不同。所以推荐使用Ridge实现岭回归

from sklearn.linear_model import Ridge,Lasso

from sklearn.datasets import fetch_california_housing

from sklearn.model_selection import train_test_split

from sklearn.preprocessing import StandardScaler

def ridge1():

    x,y=fetch_california_housing(data_home="assets/datasets",return_X_y=True)

    scaler1=StandardScaler()

    model1=Ridge(alpha=1.0,fit_intercept=True,solver="auto",max_iter=1000)

    x_train,x_test,y_train,y_test=train_test_split(x,y,random_state=666,train_size=0.7)

    x_train_stand=scaler1.fit_transform(x_train)

    x_test_stand=scaler1.transform(x_test)

    model1.fit(x_train_stand,y_train)

    score1=model1.score(x_test_stand,y_test)

    print(score1)

    pass

"""

sklearn.linear_model.Lasso()

参数:

1. **alpha (float, default=1.0)**:

   - 控制正则化强度;必须是非负浮点数。较大的 alpha 增加了正则化强度。

2. **fit_intercept (bool, default=True)**:

   - 是否计算此模型的截距。如果设置为 False,则不会使用截距(即数据应该已经被居中)。

3. **precompute (bool or array-like, default=False)**:

   - 如果为 True,则使用预计算的 Gram 矩阵来加速计算。如果为数组,则使用提供的 Gram 矩阵。

4. **copy_X (bool, default=True)**:

   - 如果为 True,则复制数据 X,否则可能对其进行修改。

5. **max_iter (int, default=1000)**:

   - 最大迭代次数。

6. **tol (float, default=1e-4)**:

   - 精度阈值。如果更新后的系数向量减去之前的系数向量的无穷范数除以 1 加上更新后的系数向量的无穷范数小于 tol,则认为收敛。

7. **warm_start (bool, default=False)**:

   - 当设置为 True 时,再次调用 fit 方法会重新使用之前调用 fit 方法的结果作为初始估计值,而不是清零它们。

8. **positive (bool, default=False)**:

   - 当设置为 True 时,强制系数为非负。

9. **random_state (int, RandomState instance, default=None)**:

   - 随机数生成器的状态。用于随机初始化坐标下降算法中的随机选择。

10. **selection ({'cyclic', 'random'}, default='cyclic')**:

    - 如果设置为 'random',则随机选择坐标进行更新。如果设置为 'cyclic',则按照循环顺序选择坐标。

属性:

1. **coef_**

   - 系数向量或者矩阵,代表了每个特征的权重。

2. **intercept_ **

   - 截距项(如果 fit_intercept=True)。

3. **n_iter_ **

   - 实际使用的迭代次数。

4. **n_features_in_ (int)**:

   - 训练样本中特征的数量。

"""

def lasso1():

    x,y=fetch_california_housing(data_home="assets/datasets",return_X_y=True)

    scaler1=StandardScaler()

    model1=Lasso(alpha=1.0,fit_intercept=True,max_iter=1000,positive=True)

    x_train,x_test,y_train,y_test=train_test_split(x,y,random_state=666,train_size=0.7)

    x_train_stand=scaler1.fit_transform(x_train)

    x_test_stand=scaler1.transform(x_test)

    model1.fit(x_train_stand,y_train)

    score1=model1.score(x_test_stand,y_test)

    print(score1)

    pass


 

if __name__=="__main__":

    # ridge1()

    lasso1()

# 逻辑回归(Logistic Regression)是机器学习中的一种分类模型,**逻辑回归是一种分类算法**,虽然名字中带有回归,但是它与回归之间有一定的联系。由于算法的简单和高效,在实际中应用非常广泛

# 一般用于二分类问题 只有两个结果的

# 使用一个sigmoid激活函数 把线性回归的结果传入进去 这个sigmoid激活函数 的值域在[0,1] 以0.5为分界线进行分类

# 损失函数 变为了复合函数


 

# API

# sklearn.linear_model.LogisticRegression()

# 参数:

#   fit_intercept bool, default=True 指定是否计算截距

#   max_iter int, default=100  最大迭代次数。迭代达到此数目后,即使未收敛也会停止。

# 模型对象:

#   .coef_ 权重

#   .intercept_ 偏置

#   predict()预测分类

#   predict_proba()预测分类(对应的概率)

#   score()准确率

from sklearn.datasets import load_iris

from sklearn.linear_model import LogisticRegression

from sklearn.model_selection import train_test_split

def logistic_regression1():

    x,y=load_iris(return_X_y=True)

    index=y!=2

    y=y[index]

    x=x[index]

    x_train,x_test,y_train,y_test=train_test_split(x,y,random_state=666,train_size=0.7)

    model1=LogisticRegression()

    model1.fit(x_train,y_train)

    score1=model1.score(x_test,y_test)

    print(score1)


 

if __name__=="__main__":

    logistic_regression1()

点赞(0) 打赏

评论列表 共有 0 条评论

暂无评论

微信公众账号

微信扫一扫加关注

发表
评论
返回
顶部