【监督式学习】
监督式学习算法包括一个目标变量(也就是因变量)和用来预测目标变量的预测变量(相当于自变量).通过这些变量,我们可以搭建一个模型,从而对于一个自变量,我们可以得到对应的因变量.重复训练这个模型,直到它能在训练数据集上达到理想的准确率。
属于监督式学习的算法有:回归模型,决策树,随机森林,K近邻算法,逻辑回归等算法
【无监督式学习】
算法无监督式学习不同的是,无监督学习中我们没有需要预测或估计的因变量.无监督式学习是用来对总体对象进行分类的.它在根据某一指标将客户分类上有广泛作用.
属于无监督式学习的算法有:关联规则,K-means聚类算法等
** 【强化学习】**
这个算法可以训练程序作出某一决定,程序在某一情况下尝试所有的可能行为,记录不同行动的结果并试着找出最好的一次尝试来做决定属于强化学习的算法有:马尔可夫决策过程
线性回归
线性回归是利用连续性变量来估计实际数值(比如房价等),我们通过线性回归算法找出自变量和因变量的最佳线性关系,图形上可以确定一条最佳的直线.这条最佳直线就是回归线.线性回归关系可以用Y=ax+b表示.
在这个Y=ax+b这个公式里:
Y=因变量
a =斜率
x=自变量
b=截距
a和b可以通过最下化因变量误差的平方和得到(最小二乘法)
线性回归还分为:一元线性回归和多元线性回归.很明显一元只有一个自变量,多元有多个自变量.
拟合多元线性回归的时候,可以利用多项式回归或曲线回归
代码:
Import Libraryfrom sklearn import linear_model x_train=input_variables_values_training_datasetsy_train=target_variables_values_training_datasetsx_test=input_variables_values_test_datasets # Create linear regression objectlinear =linear_model.LinearRegression()# Train the model using the training sets and check scorelinear.fit(x_train, y_train)linear.score(x_train, y_train) #Equation coefficient and Interceptprint('Coefficient: \n', linear.coef_)print('Intercept:\n',linear.intercept_) #Predict Outputpredicted= linear.predict(x_test)
如果觉得《机器学习(监督 无监督 强化学习及线性回归)》对你有帮助,请点赞、收藏,并留下你的观点哦!