失眠网,内容丰富有趣,生活中的好帮手!
失眠网 > Linux下安装Python 并在Linux下运行python代码文件

Linux下安装Python 并在Linux下运行python代码文件

时间:2020-02-28 01:35:51

相关推荐

Linux下安装Python 并在Linux下运行python代码文件

CentOS配置源

1.查看本地yum源

ll /etc/yum.repos.d/

2.把默认yum源备份

mkdir /opt/centos-yum.bakmv /etc/yum.repos.d/* /opt/centos-yum.bak/

3.查看系统的版本

cat /etc/redhat-release

4.下载对应的YUM源:

wget -O /etc/yum.repos.d/CentOS-Base.repo /repo/Centos-7.repo

5.清除缓存

yum clean allyum makecache yum list

6.检测你的环境中是否有python,查看版本:

python -V

默认带的有python2.7.5,我们需要安装个python3.7.4,别的版本也可以

wget /ftp/python/3.7.4/Python-3.7.4.tgz

下载完之后,命令ls查看当前目录下的文件,可以看到Python-3.7.4.tgz,我们需要解压这个文件

tar -zxf Python-3.7.4.tgz -C /opt/soft/

进入解压后的目录,进行编译,指定编译后生成文件的位置

cd soft/Python-3.7.4/./configure --prefix=/usr/local/python3

7.安装python可能用到的包和依赖:

yum install openssl-devel bzip2-devel expat-devel gdbm-devel readline-devel sqlite-develyum install gccyum - y install zlib*yum install libffi-devel -y

8.安装python:

make && make install

9.安装完成设置软连接:

ln -s /usr/local/python3/bin/python3 /usr/bin/python3ln -s /usr/local/python3/bin/pip3 /usr/bin/pip3

10.查看版本:

python3 -Vpip3 -V

安装spark

1.解压缩重命名

tar -zxf spark-2.4.4-bin-hadoop2.6.tgz -C /opt/soft

mv spark-2.4.4-bin-hadoop2.6 spark244

2.配置spark/conf下的spark-env.sh和sbin下的spark-config.sh文件:

cp spark-env.sh.template spark-env.sh

vi spark-env.sh

export SPARK_MASTER_HOST=192.168.181.132 #主节点IPexport SPARK_MASTER_PORT=7077 #任务提交端口export SPARK_WORKER_CORES=2 #每个worker使用2核export SPARK_WORKER_MEMORY=2g #每个worker使用3g内存export SPARK_MASTER_WEBUI_PORT=8888 #修改spark监视窗口的端口默认8080

vi spark-config.sh

export JAVA_HOME=/opt/soft/jdk180

配置并激活spark环境变量:无需配置PATH

#sparkexport SPARK_HOME=/opt/soft/spark244

source /etc/profile

设置pip豆瓣源

root目录下新建.pip文件夹:然后新建文件pip.conf

#豆瓣源,可以换成其他的源index-url = /simple#添加豆瓣源为可信主机,要不然可能报错trusted-host =

Python代码:

import findsparkfindspark.init()from pyspark.sql import SparkSessionfrom pyspark.ml.clustering import KMeansfrom pyspark.sql.types import DoubleTypefrom pyspark.sql.functions import colfrom pyspark.ml.feature import VectorAssemblerif __name__ == '__main__':spark = SparkSession.builder.master("local[8]").config("spark.debug.maxToStringFields","120").config("spark.executor.memory", "3g")\.appName("mymodel").getOrCreate()df = spark.read.format("CSV").option("header","true")\.load("hdfs://192.168.181.132:9000/events/data/events.csv")cols = [c for c in df.columns if c.startswith("c_")]feas = cols.copy()cols.insert(0,"event_id")df1 = df.select([col(c).cast(DoubleType()) for c in cols])#可以将多列合成一列,但是输入的数据必须不能是str或者floatva = VectorAssembler().setInputCols(feas).setOutputCol("features")res = va.transform(df1).select("event_id", "features")model = KMeans().setK(35).setFeaturesCol("features").setPredictionCol("predict").fit(res)r= model.transform(res).select(col("event_id").alias("eventid"), col("predict").alias("eventtype"))r.coalesce(1).write.option("sep", ",").option("header", "true").csv("hdfs://192.168.181.132:9000/events/eventtype",mode="overwrite")spark.stop()

把上面python的代码文件myps.py放到lunix的一个路径下,我的是在/opt下

导包:

pip3 install findsparkpip3 install numpy

然后运行改文件

python3 /opt/myps.py

查看hdfs上的文件,验证代码是否执行成功

hdfs dfs -cat /events/eventtype/part-00000-96155969-937f-481e-a8c0-255488d96433-c000.csv|wc -l

如果觉得《Linux下安装Python 并在Linux下运行python代码文件》对你有帮助,请点赞、收藏,并留下你的观点哦!

本内容不代表本网观点和政治立场,如有侵犯你的权益请联系我们处理。
网友评论
网友评论仅供其表达个人看法,并不表明网站立场。