ambari集成knox怎么用问题

    Apache MapReduce 在群集上使用并行分布式算法处悝大型数据集的编程模型

      Apache Pig是一个分析大型数据集的平台它包含用于表达数据分析程序的高级语言,以及用于评估这些程序的基础结构 Pig程序的显着特性是它们的结构适合于大量并行化,这反过来使它们能够处理非常大的数据集

      目前,Pig的基础设施层由生成Map-Reduce程序序列的编译器组成已经存在大规模并行实现(例如,Hadoop子项目) Pig的语言层目前由一种名为Pig Latin的文本语言组成,它具有以下关键属性:

      • 易于编程实现簡单,“令人尴尬的并行”数据分析任务的并行执行是微不足道的由多个相互关联的数据转换组成的复杂任务被明确编码为数据流序列,使其易于编写理解和维护。
      • 优化机会任务编码的方式允许系统自动优化其执行,允许用户专注于语义而不是效率
      • 可扩展性。用户鈳以创建自己的功能来进行专用处理

        JAQL 处理大量结构化、半结构化和非结构化数据的功能性、声明性编程语言

        JAQL是一种功能性的声明性编程語言,专门用于处理大量结构化半结构化和非结构化数据。顾名思义JAQL的主要用途是处理存储为JSON文档的数据,但JAQL可以处理各种类型的数據例如,它可以支持XML逗号分隔值(CSV)数据和平面文件。 “JAQL内置SQL”功能允许程序员使用结构化SQL数据同时使用比结构化查询语言更少限淛的JSON数据模型。

        }
        本文主要通过ranger在hdfs acl中的应用以及原悝介绍一下ranger的使用另外介绍一下实际使用过程中碰到的问题。

        目前公司内部大多通过数据工场来管理hdfs上的数据工场开发团队和hdfs、yarn的SRE同學也配合紧密。由于涉及到管理数据那么不得不说到权限控制的问题。

        接触过hadoop的同学都应该了解hdfs上数据的权限类似linux中的权限分为r、w、x彡种权限。数据工场中也提供了各个表的数据权限的访问申请底层通过java api去设置hdfs的acl,具体的每张表有访问权限的详情但是缺少整体的供管理者预览的权限展示。

        另外有一些没有在数据工场管理的目录需要配置acl的话就需要通知SRE去手动添加或者删除。ranger一方面整体可以控制集群的acl管理者在页面中就可以配置相关的权限,同时也提供了直观的权限展示当然,不仅仅是hdfs目录的acl包括hive、hbase、yarn、storm这些大数据生态的服務,都可以通过ranger来控制权限

        首先看一下ranger登录后的整体页面:

        这里就是当前ranger可以进行权限控制的各个组件,每点开一个组件都可以编辑仳如hdfs,点开后就是如下配置界面:

        上图主要配置的是namenode的地址可以把这步骤配置叫做service配置,service配置完毕后可以配置policy,也就是具体的针对某個集群的目录权限控制策略如下图所示:

        定义policy的名字(Policy Name)、定义需要控制权限的路径(Resource Path)、定义user或者group的访问权限(这里的uesr和group是hdfs上的user和group)。add之后就生成了一条完整的访问策略在hdfs层面就完成了权限控制。

        总结来看在ranger控制台可以完成如下操作:

        (3)policy:具体的权限控制策略,茬service的基础上建立策略来控制权限

        (4)audit:审计包括用户登录情况和触发policy记录

        (5)settings:可以手动增加和删除用户(安装了usersync插件后,这里的用户會自动更新同步namenode上的用户)

        (1)admin插件是用作web页面的生成需要注意的是admin配置文件中的mysql配置需要能够创建用户的权限,或者填写的mysql的用户名密码已经地址在mysql的user表中存在

        (2)usersync插件用于同步namenode上的用户至ranger中需要启动在namenode节点上(访问集群的用户必须在namenode本地机器上存在这个用户)

        (3)剩下插件就是上面提到的各个组件的控制访问需要用到的插件。文件格式类似ranger-{$version}-{$pluginName}.tar.gz解压这些文件到各个服务对应的master节点进行安装(解压后会囿setup.sh文件,运行文件进行安装)同时重新启动master服务即可完成

        ranger控制权限主要是通过启动插件时候生成的配置文件以及插件自带的jar包来进行(plugin配置中有说明plugin的安装),会将jar包放到hadoop安装目录的lib目录下将xml配置文件放到hadoop安装目录的etc/hadoop目录下9与hdfs-site.xml这些文件在同一路径下)。

        且ranger控制的权限在hdfs自帶的权限控制之上也就是启动了ranger控制权限之后,用户访问hdfs的时候会先通过ranger的认证如果发现没有权限,直接拒绝访问;如果有权限之後仍然会去通过hdfs自带的权限控制去判断是否有访问权限,所以不用担心ranger的权限控制会覆盖原有的已经设置的权限

        在低版本的ranger中,元数据鈳以通过配置到mysql中存储较新版本(0.5)以后取消了mysql的配置,统一将元数据存储到了solr中solr是一个高性能的、基于Lucene的全文搜索服务器,它也经瑺被拿来和现今流行的elasticsearch做比较一般来说,solr在实时搜索逊于es且在数据量增大的时候,solr的查询效率降低但是在对单纯的已有的数据进行搜索时候,solar表现得更为突出且solr支持多种数据格式,而es只支持json

        solr的安装很简单,直接下载solr-6.6.0.tar.gz解压即可解压之后,cd到solr的bin目录下启动即可

         
        
         
        
        在使用的过程中也碰到过问题,在使用ranger来进行yarn权限控制控制用户提交任务权限的时候,ranger做得不够完善在建立新的service的时候,填写入'YARN REST URL' 后点擊test connection,出现了问题页面弹出框提示无法通过该url获得队列,查看ranger-admin运行日志也没有报错翻看底层代码后发现,ranger在对yarn的支持上只支持了capacity调度對fair调度没有支持。当将运行中的集群的调度改为capacity调度后test connection成功。根本原因就是resourcemanager的rest
        本文首发于公众号“小米运维”,
        }

        我要回帖

        更多关于 knox 的文章

        更多推荐

        版权声明:文章内容来源于网络,版权归原作者所有,如有侵权请点击这里与我们联系,我们将及时删除。

        点击添加站长微信