博客
关于我
《Mahout算法解析与案例实战》一一2.3 测试安装
阅读量:709 次
发布时间:2019-03-17

本文共 1047 字,大约阅读时间需要 3 分钟。

Mahout测试安装指南

本节内容来自《Mahout算法解析与案例实战》一书中的第2章,作者:樊哲。更多章节内容请关注云栖社区“华章计算机”公众号。

2.3 测试安装

首先下载测试数据。在浏览器中输入以下地址下载相应的数据:

[去除地址]

测试数据由Dr Robert Alcock于1999年合成,包含600个样本,每个样本包含60个属性列,共分为6个类别:正常(C)、循环(B)、上升趋势(E)、下降趋势(A)、向上移位(D)、向下移位(F)。图2-5展示了每个类别的10个样本数据图。

[去除img标签]

数据准备

将测试数据下载到 /home/mahout/data 目录,使用Hadoop的fs指令将数据上传到HDFS文件系统。命令如下:

$HADOOP_HOME/bin/hadoop fs –copyFromLocal testdata /home/mahout/data

上传完成后,访问HDFS文件系统中的 /user/mahout/testdata 目录,准备进行Canopy算法测试。

测试运行

在终端输入以下命令运行Mahout Canopy算法:

$HADOOP_HOME/bin/hadoop jar $MAHOUT_HOME/mahout-examples-0.7-job.jar org.apache.mahout.clustering.syntheticcontrol.canopy.Job

运行完成后,程序会自动执行3个Job任务,将原始数据按类别分区。在HDFS文件系统的 /user/mahout/output 目录中可以查看输出文件。

结果处理

将序列文件转换为文本文件以便分析。打开终端,运行以下命令:

$MAHOUT_HOME/bin/mahout clusterdump –i output/clusters-0-final –p output/clusteredPoints –o /home/mahout/test

参数说明:

  • –i:输入文件路径(HDFS文件系统中的Canopy算法生成的中心点文件路径)
  • –p:分类后的数据文件目录(HDFS文件系统路径)
  • –o:分类结果生成的本地文本文件路径

运行完成后,打开 /home/mahout/test 目录,查看分类结果文件。文件内容包括6个类别(C-0到C-5),每个类别下列出对应样本数据。

通过以上步骤,您可以验证Mahout是否正确安装。如操作顺利完成,说明Mahout环境配置成功。

转载地址:http://ifcez.baihongyu.com/

你可能感兴趣的文章
Nginx配置自带的stub状态实现活动监控指标
查看>>
Nginx配置详解
查看>>
nginx配置详解、端口重定向和504
查看>>
Nginx配置负载均衡到后台网关集群
查看>>
Nginx配置限流,技能拉满!
查看>>
Nginx配置静态代理/静态资源映射时root与alias的区别,带前缀映射用alias
查看>>
Nginx面试三连问:Nginx如何工作?负载均衡策略有哪些?如何限流?
查看>>
nginx:/usr/src/fastdfs-nginx-module/src/common.c:21:25:致命错误:fdfs_define.h:没有那个文件或目录 #include
查看>>
Nginx:NginxConfig可视化配置工具安装
查看>>
ngModelController
查看>>
ngrok | 内网穿透,支持 HTTPS、国内访问、静态域名
查看>>
ngrok内网穿透可以实现资源共享吗?快解析更加简洁
查看>>
NHibernate学习[1]
查看>>
NHibernate异常:No persister for的解决办法
查看>>
NIFI1.21.0/NIFI1.22.0/NIFI1.24.0/NIFI1.26.0_2024-06-11最新版本安装_采用HTTP方式_搭建集群_实际操作---大数据之Nifi工作笔记0050
查看>>
NIFI1.21.0_java.net.SocketException:_Too many open files 打开的文件太多_实际操作---大数据之Nifi工作笔记0051
查看>>
NIFI1.21.0_Mysql到Mysql增量CDC同步中_日期类型_以及null数据同步处理补充---大数据之Nifi工作笔记0057
查看>>
NIFI1.21.0_Mysql到Mysql增量CDC同步中_补充_更新时如果目标表中不存在记录就改为插入数据_Postgresql_Hbase也适用---大数据之Nifi工作笔记0059
查看>>
NIFI1.21.0_NIFI和hadoop蹦了_200G集群磁盘又满了_Jps看不到进程了_Unable to write in /tmp. Aborting----大数据之Nifi工作笔记0052
查看>>
NIFI1.21.0_Postgresql和Mysql同时指定库_指定多表_全量同步到Mysql数据库以及Hbase数据库中---大数据之Nifi工作笔记0060
查看>>