最新文章
  • jdk Hadoop Spark Hive Zookeeper环境变量

    下载地址:http://mirrors.linuxeye.com/jdk/jdk-8u231-linux-x64.tar.gz # 编辑 profile vim /etc/profile # JDK export JAVA_HOME=/usr/java/jdk1.8.0_23……

    Akiraka 2020-02-09
    0 0
  • CDH Spark 设置python版本

    配置好 重启 spark服务即可

    Akiraka 2020-02-09
    0 0
  • Spark 默认 python版本修改

    # 路径 /opt/cloudera/parcels/CDH-5.16.1-1.cdh5.16.1.p0.3/bin/pyspark # 找到python 直接改就可以了

    Akiraka 2020-02-09
    0 0
  • hue 报错

    'ascii' codec can't encode characters in position 0-2: ordinal not in range(128) 错误描述 使用中文用户名就会报错 解决方法 /opt/cloudera/parcels/CD……

    Akiraka 2020-02-09
    0 0
  • pyspark 解决报错问题

    问题描述 需要切换 hdfs 用户,默认是不能登录的 修改 hdfs 即可 只要非管理员用户也可以 vim /etc/passwd # 原 hdfs:x:995:990:Hadoop HDFS:/var/lib/had……

    Akiraka 2020-02-09
    0 0
  • 设置pyspark 启动时所使用的python版本

    以下操作均为使用非root用户进行。 指定pyspark启动时使用的python版本, vim ~/.bashrc 在文件中添加: export PYSPARK_PYTHON=/usr/local/bin/python3 指……

    Akiraka 2020-02-09
    0 0
  • pyspark连接MySQL出错

    解决方法 报错内容: java.sql.SQLException: No suitable driver 解决办法是将mysql的驱动jar包,拷贝到jdk文件夹中的jre/lib/ext/ cp /usr/share/java/my……

    Akiraka 2020-02-09
    0 0
  • Ubuntu 16.04 安装CDH 5.16.2

    一、集群环境 CDH 只支持 ubuntu 14.04 与 ubuntu 16.04 目前 ubuntu 18.04 就别想安装了 集群建议,最少8核32G内存,namenode节点建议64G内存。 描述 主……

    Akiraka 2020-02-09
    0 0
  • Centos 7.7 安装 CDH 6.3.1

    一、集群环境 集群建议,最少8核32G内存,namenode节点建议64G内存。 描述 主机名 ip地址 系统 名称节点 namenode-01 192.168.101 ubuntu 16.04 名……

    Akiraka 2020-02-09
    0 0
  • CentOS 安装tab命令补全

    # 安装epel源 yum -y install epel-release # 加快yun速度 yum -y install yum-plugin-fastestmirror # 安装bash-completion yum -y install bash-completion ……

    Akiraka 2020-02-09
    0 0