标签: 官网WPS office下载的地址怎么找

  • wps office免费版的下载网站在哪里

      WPS office的电脑版的下载网站怎么找四大交易平台?分别是:binanceapp、Mxecoin、Bleutrade、Kuna、BL3P、MDEX、星联、U米、抹茶、PDbit等等十个值得信赖的交易所,安全性和技术性最好的交易所,下载靠谱的交易平台还是很重要。下面一起详细了解“ustd平台”。

      1、binanceapp

      OKEXbinance交易所从交易至今目前比较靠谱,binance交易所是一家数学资产交易平台,是最早的合约交易平台,排前三的一家交易所,喜欢玩合约的几乎都在交易所交易过,技术点上交易所交易所徐明星在区块链领域里是有着超前的眼光和睿智的投资,行业领军人物,早期数字币爱好者,交易所交易所可以说是国内合约用户最多的一个平台。

      2、Kuna

      是创立于瑞士楚克,是获得瑞士金融市场监督管理局(FINMA)颁发资格证的全球交易所为打造”金融级数字资产交易平台”为目标,2019年9月已获瑞士金融市场监督管理局 (FINMA)的VQF牌照。其运营中心设立于和新加坡,并以为中心向全球市场提供服务。目前累积用户数量已突破100万人。

      无论您是数字代币新手还是专业交易者,都是您满足所有加密需求的一站式商店。移动应用程序调整了我们网络平台的全部功能,以实现无缝的移动交易。请访问我们的服务条款以了解更多信息。
    官网wps 的最新的下载的网址
      交易app是全球排名前三的WPS office的电脑版的下载网站怎么找交易所,用户可以直接从你的移动设备买卖比特币、以太坊、泰达币、卡尔达诺、狗狗币和数百种其他加密货币。

      3、Bleutrade

      在对于wps的官网最新的下载的地方在哪里的态度要好很多,政府鼓励银行与wps的官网最新的下载的地方在哪里交易所合作,对前一段时间通过法律的形式认可wps的官网最新的下载的地方在哪里,所以在发展的较好。

      注册用户多,交易也非常活跃,并且国际化布局,在新加坡,美国,马耳他等地都设立有独立的运营中心。其交易所的技术实力不错,虽然成立至今数次被起诉,但是安全做的可以,也取得了的区块链经营牌照,合规经营。

      总体而言,也是一家不错的交易所,虽然在全球的排名不高,但是交易币种丰富,也有交易深度,还算是一家不错的交易所。而58coin交易所用户口碑比较好,存比特币,交易所钱包安全性极高,流转快速,方便,变现也非常快。交易比特币,核心是无手续费,省钱!

    WPS office的官网的下载地方的方法
      4、BL3P

      数字资产及衍生品国际站秉持开放、参与、共享的区块链价值,平台倡导数字资产价值投资理念。从保障投资者权益出发,严格审核有价值的币种进行上线交易,并与资产发行方合作,发行更具成长价值的数字资产投资标的。 愿景是能够为数字资产及衍生品投资者提供便捷、放心、安全的投资渠道。

      5、抹茶

      成立至今,一共经历了八次融资,在最近的一轮融资(E轮融资)中估值高达80亿美元。在E轮融资中,拿到了逾(3).2亿美元的资金,亿万富翁切斯·科尔曼所掌管的老虎全球管理基金、著名风投基金Andreessen Horowitz等机构都是其投资人。

      八轮融资中共有35家机构(包括个人)参与,其中28个机构来自美国,3个来自,1个来自澳大利亚,剩余3个是天使投资人。美国中主要的投资机构来自加利福尼亚州(19个)和纽约(5个)。

      6、PDbit

      在收购了 ParaDEX 之后,决定关闭 GDAX 数字资产平台、并推出全新的“专业加密货币交易所” 。鉴于当前两个平台都非常活跃,这一变动被定在了6月29号实施。新平台将保留GDAX的所有功能,同时引入一些新特性。除了更加流畅和直观的设计,新平台还声称提供简化的存取款功能、可访问改进的图表和历史数据、以及改版后的投资组合页面。希望用“Pro”来重新塑造一下自己的品牌力。

      尽管自2011年后出现了各种各样的山寨币,例如域名币、莱特币、比特股等,但直至2016年上半年,仍然将自己定位为一家比特币交易服务公司,只能交易比特币官网WPS office下载的地址怎么找。

      变化发生在在2016年。随着以太坊在业内声势逐渐浩大,等明星交易平台都纷纷上线了以太币。在和以太坊社区进行了长久的交流后,终于,在2016年7月,打破惯例上线了以太坊,并将交易平台更名为GDAX(全球数字资产交易平台),其定位从比特币交易平台扩大到了整个数字资产领域。

      2017年5月,莱特币获得全面支持,用户可以在交易平台购买和出售莱特币。2017年12月,又上线了比特币现金交易,比特币现金随即暴涨70%。

      由于上币十分审慎,又拥有巨大的用户量(2017年用户量达到了千万级别),因此每次宣布上线某个币种,该币价格都会暴涨,以至于业内有“上币效应”的说法。不过,随着最近的上币大扩容,所谓的“上币效应”似乎消失了官网WPS office的最新下载的地方怎么找。

      7、星联

      交易所交易所团队成员均来自早期wps的官网最新的下载的地方在哪里领域投资者和研究者,成员在wps的官网最新的下载的地方在哪里领域具有丰富的研发和运营经验。交易所同市面上多个优质头部社区形成了战略协作,将同合作社区将在生态建设、共识推广、用户增长等多方面进行配合;同时交易所与全球上百家行业优质媒体达成了战略合作,通过社区媒体矩阵为交易所提供强大的推广宣发及市场品牌建设支持wps的免费版的下载的方法怎么找。

      8、MDEX

      优势:老牌,客户多,交易量相对较大。

      劣势:进出场要跟个人商家对接,有时候时间上会比较没优势。我自己就经历过有币找几个卖家都出不掉的尴尬。

      交易所目前已经成为币圈用户“最多’的交易所,成功的抓住了大多数散户的需求,现货买币、现货交易基本上做到了深度最佳,这其实就代表了大多数散户确实认可,这一点在币圈里面可谓是弥足珍贵。一提到去哪买比特币啊?很多人都优先想到。

      近期还公示了冷钱包,里面币非常多,在币圈里面成功秀了肌肉。

      9、Mxecoin

      交易所获得了欧洲的区块链交易牌照,开通了美元,欧元,韩元等法币的出入金,在欧洲部分国家还支持信用卡的出入金。

      10、U米

      是当前世界四大比特币交易所之一,2011年8月22日成立。该公司自成立以来主要是以面向欧洲市场为主,以替代2014年关闭的交易所。虽然公司以美元进行交易,但它允许通过欧盟的单一欧元支付区域存入货币,这是在欧洲银行账户之间转账的便利方式。

      WPS office的电脑版的下载网站怎么找的发展基础:

      WPS office的电脑版的下载网站怎么找的产业化将形成WPS office的电脑版的下载网站怎么找市场。如果说股票市场的出现是工业资本与金融资本结合的产物,那么WPS office的电脑版的下载网站怎么找将是服务资本与金融资本结合的产物。

      现代服务业,特别是个性化的现代信息服务业,将成为个性化WPS office的电脑版的下载网站怎么找的产业基础。个性化的WPS office的电脑版的下载网站怎么找市场与股票、衍生金融工具市场不同,后者更多的是为工业化的需求而建立起来的,这种工业化的需求也体现在满足所谓现代服务业的需求上。官网wps下载地方在哪

      而前者的产业基础将与信息化的需求息息相关。未来的第三产业不同于服务业,它的发展方向是后现代服务业,也就是体验业,即更多的满足精神、文化、娱乐发展需求的个性化产业。

      股市将更多的发挥利用信息引导工业和服务业理性投资的作用,而个性化WPS office的电脑版的下载网站怎么找市场则更多的是发挥利用信息引导体验业感性消费的作用。

      怎么将你的经纪账户连接到你的银行账户?

      注册后,用户应将其银行帐户连接到新帐户。电汇是为帐户注资的最便宜的选择。其他选项包括使用借记卡。

      怎样获得usdt钱包地址?

      下载任何一个支持ETH的钱包(wps免费版的下载入口推荐OKX、币安),地址就是你的USDT地址。

      以上就是“WPS office的电脑版的下载网站怎么找四大交易平台?ustd平台”详细内容了,关于可以使用的交易平台可以继续查看相关内容。

  • 官方wps office 下载的网址是多少

      随着WPS office的电脑版的下载网站怎么找交易的兴起,越来越多的交易平台在国内涌现。但是,为了保护投资者的合法权益,国内监管部门对WPS office的电脑版的下载网站怎么找交易平台进行了严格监管,只有符合相关规定的平台才能获得合法经营资质。以下是国内正规的WPS office的电脑版的下载网站怎么找交易平台的介绍。

      1. 币安

      币安是全球知名的WPS office的电脑版的下载网站怎么找交易平台之一,也是国内最受欢迎的平台之一wps office免费版的下载入口是多少。平台支持多种WPS office的电脑版的下载网站怎么找的交易,拥有良好的交易深度和流动性。币安平台提供安全可靠的交易环境,采用了多重验证和加密技术,保障用户资金的安全。
    官网wps最新的下载入口在哪里
      2. 火币网

      火币网是国内最早成立的WPS office的电脑版的下载网站怎么找交易平台之一,也是全球领先的交易平台之一官网WPS office下载的地址怎么找。平台提供了丰富的WPS office的电脑版的下载网站怎么找交易对,用户可以进行多样化的交易操作。火币网注重安全性wps office 官方的下载网站在哪里(wps官网客服电话),采用了多层次安全保护措施,保护用户的交易和资金安全。

      3. OKEx

      OKEx是全球领先的数字资产交易平台之一,也是国内知名的交易平台之一。平台提供多种wps的官网最新的下载的地方在哪里的交易和衍生品交易wps的电脑版下载网址,用户可以进行杠杆交易和合约交易。OKEx平台拥有强大的行情深度和高效的交易系统,为投资者提供稳定和安全的交易环境。

      除了以上三大平台,国内还有一些其他正规的WPS office的电脑版的下载网站怎么找交易平台,如CoinEx、币赢、海外码、虎符等。国内正规的WPS office的电脑版的下载网站怎么找交易平台有哪些 比特币三大平台

      投资者在选择WPS office的电脑版的下载网站怎么找交易平台时,应该注意以下几点:

      1. 合法经营资质

      选择正规的WPS office的电脑版的下载网站怎么找交易平台,要确保平台已经获得了国家相关部门的合法经营资质,以保护投资者的合法权益。wps office免费版下载网址怎么找

      2. 交易品种和交易深度

      平台应该提供多样化的WPS office的电脑版的下载网站怎么找交易品种,以及良好的交易深度和流动性,确保用户可以进行多样化的交易操作。

      3. 安全防护措施

      平台应该采取多重验证和加密技术,保护用户的交易和资金安全。同时,平台要加强风险管理和安全监控,防范各类网络攻击。

      4. 用户体验和客户服务

      平台应该提供友好的用户界面和良好的交易体验,同时提供专业的客户服务,解答用户的问题和疑虑。

      总之,国内正规的WPS office的电脑版的下载网站怎么找交易平台有币安、火币网、OKEx等。投资者在选择平台时,应该关注平台的合法性、交易品种、安全防护措施以及用户体验和客户服务等方面官网wps的最新下载的地址在哪里(wps最新怎么下载的是英文版的)。希望投资者可以选择到合适的平台,安全稳健地进行WPS office的电脑版的下载网站怎么找交易。

  • wps免费版的下载的地方的方法

      2006年Hadoop技术的出现标志着大数据技术时代的开始,经过10多年的蓬勃发展,大数据技术已经真正承托起一大批 企业的数据基础架构。经过4年的快速演进,Transwarp Data Hub(简称TDH)已成为国际一流的大数据平台。从2016年起,TDH正式成为Gartner认可的Hadoop国际主流发行版本。

      TDH是国内外领先的高性能平台,比开源基于Hadoop MapReduce计算框架的版本快10x~100x倍。TDH应用范围覆盖各种规模和不同数据量的企业,通过内存计算、高效索引、执行优化和高度容错的技术,使得一个平台能够处理GB级到PB级的数据,并且在每个数量级上,都能比现有技术提供更快的性能;企业客户不再需要混合架构,TDH可以伴随企业客户的数据增长,动态不停机扩容,避免MPP或混合架构数据迁移的棘手问题。

       WPS office的官网的下载的入口怎么找在这里插入图片描述

      TDH主要提供5款核心产品:Transwarp Inceptor是大数据分析数据库,Transwarp Slipstream是实时计算引擎,Transwarp Discover专注于利用机器学习从数据中提取价值内容,Transwarp Hyperbase用于处理非结构化数据,Transwarp Scope用于构建企业搜索引擎。通过使用TDH,企业能够更有效的利用数据构建核心商业系统,加速商业创新。

      TDH产品的主要技术优势包括以下几个方面:

      1.极致的性能与可扩展性

      TDH的批处理速度是开源Hadoop的10-100倍,是MPP的5-10倍,可以对从GB到PB级的数据量实现复杂的查询和分析。TDH具有高可扩展性,用户可以通过增加集群节点数量,线性提高系统的处理能力。

      2.容器技术与大数据平台

      TDH支持部署于TCOS之上。TCOS是为大数据应用量身订做的云操作系统,基于Docker和Kubernetes,支持一键部署TDH、扩容、缩容,同时支持基于优先级的抢占式资源调度和细粒度资源分配。

      3.完整的SQL和ACID支持

      Transwarp Inceptor是第一个实现完整SQL支持的Hadoop发行产品。它不仅支持SQL 2003,Oracle PL/SQL以及DB2 SQL PL,还实现了完整的ACID和CRUD功能。TDH提供JDBC和ODBC驱动连接,方便第三方工具运行于TDH之上。

      4.低延迟的流处理 Transwarp Slipstream是同时支持事件驱动和微批处理的流处理引擎,计算延迟最低可至5ms。它提供标准的SQL编程接口,还支持高可用性(HA)和Exactly-Once的语义,从而支持7×24小时的生产业务。

      5.丰富的机器学习和深度学习功能

      Transwarp Discover支持用户通过R语言和Python开发机器学习项目,也可以用图形化的工具做分析。

      6.大数据上的全文搜索

      Transwarp Search支持通过SQL实现大数据上的秒级全文搜索,它利用层次化存储、堆外内存管理等创新性技术,极大的提高了系统的可用性。此外,Search还可以结合Inceptor提供较强的数据分析能力。

      7.图形化的大数据开发工具套件

      Transwarp Studio是TDH中的大数据开发工具集,包括元数据管理Governor、工作流Workflow、数据整合工具Transporter,Cube设计工具Rubik以及报表工具Pilot。用户可以使用这些图形化工具来提高大数据的开发效率,降低技术门槛。

      8.多样化的数据处理功能

      Transwarp Hyperbase用于存储和计算结构化或非结构化数据,包括日志记录、JSON/XML文件以及二进制数据(如图像和视频)。Hyperbase底层是KV的数据库,因此其非常适合高频次的数据入库、高并发精确检索等业务。

      9.简易的操作和管理

      Transwarp Manager是专门用于部署、管理和运维TDH集群的组件。它支持产品一键安装、一键升级和图形化运维,并提供了健康检测功能,帮助用户简化运维过程。

      10.统一的安全/多租户管理

      Transwarp Guardian是TDH平台中实现安全控制和资源管理的中央服务平台,它支持Kerberos和LDAP认证,可以做细粒度的权限控制,并且提供租户管理功能。

      Transwarp Data Hub(简称TDH)提供集群服务来保证服务的高可用性,因此集群系统必须是3台以上物理服务器组成,每台服务器必须具备以下最低配置:

      2颗6核心或以上带超线程x86指令集CPU的服务器64GB以上内存2个300G以上的硬盘做RAID1,作为系统盘4个以上的300GB容量以上的 硬盘作为数据存放硬盘2个千兆以上网卡

      为实现较好的性能并实现最高的性价比,TDH针对集群内不同的模块有不同的推荐配置,Namenode和Transwarp Manager推荐使用以下配置:

      2颗6核带超线程的x86指令集CPU服务器(比如Intel® Xeon® Gold-5218 Processor)128GB以上内存6个600G以上的硬盘做RAID1作为系统盘和管理数据2个千兆以上网口的网卡

      数据节点(Datanode)的硬件配置应该根据不同应用的特点进行选配,使用Inceptor,Discover和Slipstream配置的用户需要比较高的计算能力的服务器,其数据节点的推荐配置如下:

      2颗8核心或以上带超线程x86指令集CPU的服务器(比如Intel® Xeon® Gold-5218 Processor)128GB以上内存2个300G以上的硬盘做RAID1,作为系统盘10个以上的2TB容量以上的硬盘作为数据存放硬盘2个千兆以上网卡

      TDH主要提供5款核心产品:Transwarp Inceptor是大数据分析数据库,Transwarp Slipstream是实时计算引擎,Transwarp Discover专注于利用机器学习从数据中提取价值内容,Transwarp Hyperbase用于处理非结构化数据,Transwarp Search用于构建企业搜索引擎。通过使用TDH,企业能够更有效的利用数据构建核心商业系统,加速商业创新。

      系统盘可以做RAID1。数据盘若需要RAID,请做RAID0。

      2.1.1 服务器的RAID配置

      为了优化系统的性能和稳定性,星环科技要求对服务器做以下RAID配置:

      对于新部署的集群(没有数据),服务器如果有RAID卡但没有开启,需要开启RAID卡,并给每块磁盘单独做RAID0;对于正在使用的集群(有存量数据),如果服务器配置了RAID卡但没有开启,需要给NameNode,JournalNode,TCOS

      Master的etcd,TxSQL,Guardian ApacheDS,ZooKeeper等服务对应的磁盘单独做RAID0;如果没有RAID卡,建议采购,并至少给NameNode,JournalNode,TCOS

      Master的etcd,TxSQL,Guardian ApacheDS,ZooKeeper等服务对应的磁盘单独做RAID0。

      系统安装和运行需要占用硬盘空间,在安装前操作系统硬盘必须留出300GB空间。对磁盘进行分区时需要遵守以下几点要求:

      至少要分出swap和加载于“/”的系统分区。推荐系统分区大小为200GB~300GB,并将该分区挂载到/目录。请在某数据盘上为TxSQL预留不小于200GB的空间,并将TxSQL的data dir设置为该数据盘的某个目录(例如

      /mnt/disk1/txsqldata/)。推荐把每个物理磁盘挂载在 /mnt/disknn(nn为1至2位的数字)

      上不同的挂载点。建议使用EXT4文件系统。每个这样的目录会被管理节点自动配置为HDFS DataNode的数据目录。HDFS DataNode的数据目录不能放在系统分区,以避免空间不足和IO竞争。同时也建议不要将数据分区和系统分区放在同一块磁盘上以避免IO竞争。除非整个HDFS规划空间不足,否则不要在系统分区所在磁盘上创建数据分区。为了保证Docker运行的稳定性,需要专门给Docker分配一个磁盘分区,推荐分区大小为100~300GB。同时为了保障高可用,推荐在非Docker所在磁盘预留一个同样大小的空分区作为备用分区,以便在Docker所在磁盘发生故障时快速恢复服务。为了保证流畅运行,请尽量把Docker卷组划分在数据盘下。如果数据盘较多且存储空间过剩,建议使用单独一块数据盘作为Docker分区。否则,建议将一块数据盘的一个分区作为Docker分区。

      如果您使用的是RedHat或者CentOS系统,Docker分区 必须 使用XFS文件系统。其他磁盘或分区 推荐 使用EXT4文件系统。更多详细信息请参考 Docker官方文档。

      在安装之前需要对docker分区进行格式化处理:

      3.1.1 Redhat/CentOS

      在Redhat/CentOS上,docker分区必须采用XFS格式,实现的步骤如下:

      1.创建目录/var/lib/docker

      2.对分区进行xfs格式化

      3.挂载分区

      4.进行验证,检查是否格式化成功

      如果该语句返回结果中有ftype=1字样,则说明格式化成功。

      5.配置/etc/fstab

      执行语句下述命令查看UUID:

      将查到的UUID值添加在/etc/fstab中:

      3.1.2 SUSE

      在SUSE上,docker分区应采用ext4格式,处理实现的步骤如下:

      1.创建目录/var/lib/docker

      2.对分区进行ext4格式化

      3.挂载分区

      4.配置/etc/fstab

      执行语句下述命令查看UUID:

      将查到的UUID值添加在/etc/fstab中:

      例 1. 磁盘资源不富余时的规划

      某台机器有两块硬盘,容量都为600GB,分区及挂载目录将如下,其中/dev/sda1用作系统分区:

      文件系统大小挂载目录文件系统类型/dev/sda1368GB/EXT4/dev/sda232GBswap/dev/sda3100GB/var/logEXT4/dev/sda4100GB(空,Docker备用分区)XFS/dev/sdb1250GB/mnt/disk1EXT4/dev/sdb2250GB/mnt/disk2EXT4/dev/sdb3100GB/var/lib/dockerXFS

      注意,这是磁盘资源不富余情形下的规划。如果磁盘资源比较富余,建议操作系统安装在单独磁盘上,防止数据分区与系统分区造成数据读写竞争,如下一个例子。

      例 2. 磁盘资源富余时的规划

      某台机器有6块硬盘,容量都为600GB,分区及挂载目录将如下,其中一块磁盘用作系统分区:

      文件系统大小挂载目录文件系统类型/dev/sda1400GB/EXT4/dev/sda232GBswap/dev/sda3168GB/var/logEXT4/dev/sdb1600GB/mnt/disk1EXT4/dev/sdc1600GB/mnt/disk2EXT4/dev/sdd1400GB/mnt/disk3EXT4/dev/sdd2200GB/var/lib/dockerXFS/dev/sde1400GB/mnt/disk4EXT4/dev/sde2200GB(空,Docker备用分区)XFS

      由于 NameNode,JournalNode,Ganglia,TCOS Master的etcd,TxSQL,Guardian ApacheDS,ZooKeeper等服务或角色对磁盘IO要求比较高,所以要求这些服务或角色目录不能在同一块磁盘上,并且不能全部在系统盘上,如果可以,应尽量都不安装在系统根目录。

      上述服务或角色所使用的磁盘配置或路径如下。请按照以下路径,提前规划好磁盘使用目录,并在安装时检查相关配置项的值是否为正确路径。

      服务角色配置项/路径TOSTOS Master (etcd)/var/etcd/data/GangliaGmetad/var/lib/ganglia/rrds/ZooKeeperZooKeeper Server/var/<service_id>/,如 /var/zookeeper1/HDFSName Nodedfs.namenode.name.dirData Nodedfs.datanode.data.dirJournal Nodehdfs-site.xml 中的配置项 dfs.journalnode.edits.dir,默认为 /hadoop/journalTxSQLTxSQL Serverdata.dir 和 log.dirGuardianApacheDSguardian.apacheds.data.dirGuardianTxSQL Serverdata.dirTranswarp Manager(开启HA时)TxSQL Server/var/lib/transwarp-manager/master/data/txsql/

      每个节点必须至少有64GB的RAM。根据节点所安装的Transwarp Data Hub服务,节点可能需要超过64GB的RAM。下表列出在节点上运行不同服务时,该节点所需的额外内存。

      服务要求Management Server8GBHDFS NameNode32GBHDFS Standby NameNode32GB{HDFS DataNode4GBInceptor Server8GBInceptor executor32GBYARN ResourceManager4GBYARN NodeManager4GBNodeManager分配给Container的计算资源数用户指定Zookeeper4GBHBase Master4GB

      具体节点需要内存的计算步骤如下所示:

      1.确认所有会在节点上运行的TDH服务。

      2.确认每个服务要求的内存容量。

      3.将所有内存要求相加。

      4.如果相加后内存要求小于64GB,则最低内存要求为64GB。如果相加后内存要求大于64GB,则最低内存要求为相加后的和。

      比如,如果节点上运行以下服务:

      HDFS DataNodeYARN ResourceManagerHBase RegionServerYARN NodeManager分配给Inceptor executor为32G则节点的内存容量要求如下(生产环境实际使用内存要结合具体的应用场景):4GB+4GB+32GB+32GB=72GB

      安装Transwarp Data Hub需要最低的网络为千兆以太网。当一台机器上有多个网络适配器时,用户可以在安装Transwarp Data Hub之前对其进行绑定配置。

      决定集群中的节点数目。决定集群中的机柜数目及每个机柜的名称。决定每个机柜中的节点数目。决定每个节点所在的子网(或多个子网)。决定每个节点的主机名和IP地址。决定哪个机器是管理节点。决定哪些机器是NameNode。决定哪些机器是客户端,哪些机器运行TDH服务,或二者兼是。一旦主机名分配给NameNode,主机名则不能再更改。确定你知道要加入到TDH集群中的每个节点的root密码。管理节点必须和集群中的其他节点属于同一子网。决定在集群中使用哪些组件。决定网络带宽和交换机背板带宽。决定交换机型号。决定如何连接到交换机。必须知道需要用到哪些以太网端口和是否需要绑定。确定每台机器的IP地址和主机名。决定如何分配IP(使用DHCP或静态分配)。决定如何解析主机名(使用DNS或/etc/hosts)。如果使用/etc/hosts,管理节点将负责更新集群中每台机器的/etc/hostswps office免费版的下载网址。

      决定如何进行时间同步。管理节点将负责所有服务器上的时间的同步,但您需要决定是否使用外部的NTP服务。如果不使用外部NTP服务,集群中所有服务器的时间是相同的,但这个时间有可能不是标准时间,这有可能导致集群与外部连接时产生错误。

      禁掉SELinux和iptables(Transwarp Manager会自动禁掉SELinux和iptables)。

      以下推荐配置可帮助确保TDH集群的性能优化和可管理性。

      节点的主机名解析。注意,主机名只能由英文、数字和“-”组成,否则之后的安装会出现问题。要同时添加一组节点到集群中。要减少网络延迟,集群中的所有节点都必须属于同一子网。每个节点应配置一块10GE的网卡,用于节点间的通信和执行集群中需要网络连接的任务。如果节点没有使用10GE的网卡,则可使用网卡绑定以便将多个网卡组合在一起以提升网络流量。绑定的网卡必须使用工作模式6。每个节点推荐最小的系统分区,至少有300GB的磁盘空间。每个节点应至少有6T的可用磁盘空间用于HDFS。集群中应至少有5个DataNode。如果可能,避免将物理磁盘分为多个逻辑分区。除了系统分区外,每个物理磁盘应当仅有一个分区,且该分区包含整个物理磁盘。仅使用物理机器,不要使用虚拟机器。虚拟机可能会明显导致HDFS I/O的缓慢。节点所在的单个或多个子网不允许有其他机器。集群中不能同时有物理机器和虚拟机器。要确保集群中的机器不成为性能和I/O的瓶颈,所有机器必须有相似的硬件和软件配置,包括RAM、CPU和磁盘空间。每个节点应至少有64GB的内存。在管理节点上,由于集群中节点执行的系统监控,大量数据可被写入/var/lib/ganglia。推荐分配200GB(鉴于Ganglia非常消耗硬盘,建议根据节点数目调整该值)的磁盘空间给/var/lib/ganglia所在分区。由于服务可能生成大量日志,推荐将/var/log放置在其他逻辑分区。这可保证日志不会占满根分区的空间。要加快对本地文件系统的读取,可使用noatime选项挂载磁盘,这表示文件访问时间不会被写回。

      要在集群中运行服务,需要指定集群中的一个或多个节点执行该服务的特定功能。这些功能被归类为功能性的角色,角色用于定义节点能为集群中的服务提供哪些功能。角色分配是必须的,没有角色集群将无法正常工作。 在分配角色前,需要了解这些角色的含义,以及对应于服务节点需要哪些角色。

      角色描述License Node提供License认证服务,判断许可证是否符合授权。

      角色描述TCOS Master提供TCOS服务的主节点。TCOS Slave提供TCOS服务的备用节点。TCOS RegistryImage管理工具。

      角色描述FlanneldFlannel服务在节点上的代理服务。Kube DnsKubernetes DNS插件,用于发现服务和通过服务名访问服务。

      角色描述Zookeeper Server一个或多个运行Zookeeper服务的节点。Zookeeper服务是指包含一个或多个节点的集群提供服务框架用于集群管理。对于集群,Zookeeper服务提供的功能包括维护配置信息、命名、提供Hyperbase的分布式同步,以及当 HMaster停止时触发master选择。Hyperbase需要有一个Zookeeper集群才能工作。 推荐在Zookeeper集群中至少有3个节点。

      角色描述Httpfs对HDFS提供Web UI服务。允许用户在可视化界面上对HDFS进行操作和管理。Data Node在HDFS中,DataNode是用来存储数据块的节点。Name NodeHDFS系统中的节点,用于维护文件系统中所有文件的目录结构并跟踪文件数据存储于哪些数据节点。当客户端需要从HDFS文件系统中获得文件时,它通过和NameNode通讯来知道客户端哪个数据节点上有客户端需要的文件。 一个集群中只能有一个NameNode。NameNode不能被赋予其他角色。Journal NodeStandby NameNode和Active NameNode通过JournalNode通信,保持信息同步。

      角色描述Resource ManagerResource Manager负责将各个资源部分(计算、内存、带宽等)安排给基础 NodeManager,并与NodeManager一起启动和监视它们的基础应用程序。Node ManagerNode Manager管理一个YARN集群中的每个节点。提供针对集群中每个节点的服务,从监督对一个容器的终生管理到监视资源和跟踪节点的状态。History Server应用状态监控平台。Timeline Server提供对YARN的作业历史日志信息的展现服务。

      角色描述Search Server提供内部搜索引擎服务。Search HeadSearch 的网页版本的集群管理工具,支持数据的增删改查,并且可以通过语句进行可视化查询,是ES开发人员的一个非常有用的辅助工具。

      角色描述Hyperbase Master节点实现Hyperbase数据库以下功能: 配区域给RegionServers,平衡整个集群。1.确认RegionServer在运行中。2.如果没找到参考值,删除parents。3.管理数据库表。4.在RegionServers中分发消息。5.监控RegionServers以决定是否有必要执行恢复,如果是,则执行恢复。可以分配HMaster角色给一个或多个节点以进行备份切换。如果你分配角色给多个节点,这将创建一个active-standby状态的HMaster节点的集群,即一个节点处于active状态而集群中的另一个节点处于standby状态。如果active状态的HMaster停止,Zookeeper集群将选出一个inactive状态的HMaster来作为active状态的HMaster。Region Server负责服务和管理Hyperbase区域的节点。Hyperbase ThriftThrift Client API开放的节点,客户端可通过Thrift和Hyperbase通讯。

      角色描述TxSQL Server高可用的元数据存储,支持数据访问,同Metastore进行通信。

      角色描述TDDMS Master管理所有Tablets、Tablet服务器以及其他集群相关的元数据。TDDMS WebserverWeb服务器。TDDMS Tablet Serve用于存储和管理Tablet。

      角色描述Inceptor ServerInceptor运行的节点,帮助查询和管理HDFS的大型数据集。Inceptor Server提供工具从文件系统中提取、转换和装载数据,实施数据格式结构,以及提供HDFS或Hyperbase的直接文件访问。Inceptor MetaStore管理表结构及其元数据信息,从TxSQL中获取目标元数据。Inceptor Nucleon批处理任务的执行节点。

      角色描述Pilot Server轻量的在线报表工具,支持多种报表样式,提供丰富美观的报表展现。Filerobot Server用于对接Pilot上对HDFS的操作。

      角色描述EventStore ServerEventStore的任务管理工具。EventStore Rest提供EventStore Rest服务的服务器。EventStore SentinelSentinel(哨兵)是用于监控EventStore集群中Master状态的工具,是EventStore的高可用性解决方案

      角色描述Notification Server提供消息通知服务。此服务覆盖TDH中所有具有通知功能的工具,如Governor。

      角色描述Governor Server负责提供对元数据的访问、历史跟踪、状态统计等功能,为用户提供数据治理服务。

      角色描述KMS ServerHadoop密钥管理服务器。

      角色描述Transporter Server提供Transporter ETL服务。实现数据的实时入库。

      角色描述Workflow Server提供可视化的工作流设计,以及对工作流的调试、调度,对工作流任务具有丰富的分析功能。

      角色描述Rubik Server提供对OLAP Cube的设计、创建、实例化服务。

      角色描述KeyByte ServerKeyByte服务器。KeyByte Slave集群模式下KeyByte副本服务器。

      角色描述Quark GatewayInceptor网关服务器。

      角色描述Filebeat负责采集日志数据并写入EventStore topic。Logstash负责把数据从对应的EventStore topic写入Search index。Kibana为Logstash和Search的日志分析提供友好的Web界面,可以帮助汇总、分析和搜索重要数据日志。EventStoreManager管理整个平台公用的EventStore集群。Crontab用于调度定时或周期性执行的任务。

      角色描述Discover IDERStudio是一个R的集成开发环境(IDE),它包括一个控制台和语法编辑器,支持直接代码执行,提供绘图、历史、调试和工作区管理等工具。Discover Notebook轻量的科学计算开发工具。支持使用R、Scala和SQL做数据分析,提供方便的交互界面。Discover Local-Cran本地的R语言程序库。

      角色描述Slipstream Server接收流计算请求,实现任务分配的服务。Slipstream Metastore管理和流相关的表结构及其元数据信息,从TxSQL中获取目标元数据。Slipstream History Server装载Slipstream任务的运行信息并以Web的方式供用户浏览。Slipstream Executor流计算的执行节点。

      角色描述SlipboardSlipstream开发工具套件。

      在安装Transwarp Data Hub之前,集群中的所有节点必须满足环境要求和安装前的检查中所列举的所有要求。

      可以使用两种方式来安装集群中的服务器的操作系统,单独安装方式和PXE安装方式。

      其中单独安装方式是使用Red Hat Enterprise Linux for Servers、CentOS系列或SUSE Linux Enterprise Server的安装光盘在每台服务器上独立安装操作系统。

      注意:对于Red Hat Enterprise Linux for Servers、CentOS 系列的操作系统,需要使用visudo命令打开/etc/sudoers配置文件:

      将该文件中的“Defaults requiretty”注释掉

      如要使用非root用户安装产品,使用的用户必须拥有sudo权限。所以,管理员需要向/etc/sudoers文件中添加sudo用户。方法为在该文件以下部分最后一行的内容:

      例如,如果为用户admin添加sudo权限,在文件的末尾增添的内容是:

      如果您有DNS,那么您可以直接跳到下一节。如果您没有DNS,在安装前,请打开包含Transwarp Manager在内的每个节点下的/etc/hosts文件,确保该文件包含所有节点的hostname和IP地址的映射关系列表,例如:

      您可以登入到节点使用 hostname 命令检查节点主机名,确保节点名称与上述 /etc/hosts 里设置的名称相同。请注意,集群的节点名称不能重复,且必须符合DNS-1123规范,由数字、小写字母或“-”组成,不能包含大写字母,长度小于63。

      您可以使用 hostnamectl set-hostname hostname 命令来修改主机名,参考以下示例:

      请注意 /etc/hosts 文件的第一行必须为127.0.0.1的记录,不能将此行注释掉,也不能将当前主机名写在该行中。通常如下:

      5.3.1 安装介质获取方式

      5.3.2 安装介质使用说明

      如果有安装光盘可将安装光盘插入服务器CD/DVD ROM中直接运行。由于安装过程中会使用到操作系统的安装介质,建议用户将OS的ISO文件事先拷贝到管理服务器上。

      如客户服务代表或技术支持提供的是压缩包,请将压缩文件导入服务器中。

      目前TDH共提供以下三个压缩包:

      Manager安装包TDH-Basic-Component-Transwarp-8.1.0-X86_64-snapshot.tar.gz (8.1.0版本)

      TDH-Platform-Transwarp-version.tar.gz (8.1.0版本)TDH除Discover外所有产品的产品包TDH-Image-Registry-Transwarp-8.0.x-final.tar.gz

      为了更好的支持不同产品线的产品,Transwarp Manager自6.0版本开始独立安装。

      您需要先安装Transwarp Manager,之后再上传产品包来安装相应产品。

      本章节将详细描述如何在管理节点上安装Manager。

      注意,在安装之前请确保已经按照安装前的检查的要求为Docker分配专门的分区。

      Manager的安装需要先解压安装包,然后运行Web Installer使用图形化界面安装。

      1.解压Manager安装包。在安装包所在的服务器上运行以下命令:

      为Manager安装包的名称,通常为 TDH-Platform-Transwarp-version.tar.gz,具体名称请参阅“5.3 安装介质”小节。

      2.通过浏览器访问管理节点,进入Web Installer界面。

      在这里插入图片描述

      3.系统首先需要您阅读Java许可。阅读完毕,点击“同意”进入下一步。

      在这里插入图片描述

      4.系统将自动检查管理节点的环境配置,主要包括时间、日期、时区及主机名信息并显示在屏幕上,请确认。

      在这里插入图片描述

      5.取决于管理节点上的网卡数量,您需要进行如下操作:

      如果管理节点上只有一块网卡,安装结束后,您会被要求设置

      Transwarp Manager端口,推荐默认端口“8180”。

      在这里插入图片描述如果管理节点上有多块网卡,系统会要求您从中选择一块网卡,用于Transwarp Manager和集群中其他节点通信。在这一步,您应该选择用于集群内部通信的网卡。

      6.等待安装

      在这里插入图片描述

      7.安装Manager需要一个包含对应版本操作系统的资源库(repo)。如果您的操作系统为CentOS或者Red Hat,您会看到如下提示:

      在这里插入图片描述

      8.(该步骤中所有操作以CentOS/Red Hat系统为例,SUSE系统的操作完全相同,区别在于如果您使用的是SUSE系统,示例步骤中显示“yum”的地方将会在您的操作中显示“zypper”)这一步中,您可以选择是否添加一个新的操作系统资源库。取决于您的选择,您需要进行下面的操作:

      如果您选择“使用远程RPM库”,您需要输入已经创建好的资源库的URL:

      在这里插入图片描述 – 如果您选择“创建新的RPM库(DVD)”,您需要准备好对应版本操作系统的光盘。

      在这里插入图片描述如果您选择“创建新的RPM库(ISO)”,您需要准备好对应版本操作系统的ISO文件。我们 建议 您采用ISO镜像方法生成资源库库包。

      在这里插入图片描述如果您选择“后台手工配置”,您在该步骤无需进行其他操作。

      您进行选择后,系统会清理资源库缓存:

      在这里插入图片描述

      在这里插入图片描述

      9.资源库缓存清理完毕后,系统会自动开始安装和配置Transwarp Manager。安装程序会自动安装必需的软件包,全程静默安装,安装配置完成后自动跳转到下一步。

      10.Manager安装完成,可以访问提示的安装地址并使用默认的用户名/密码(admin/admin)去登录管理界面继续接下来的配置。

      在这里插入图片描述

      如果您的节点上已安装以前版本的Transwarp Manager,您也可以通过Web Installer来进行升级。

      1.请先执行安装Transwarp Manager中的第1步,运行Web Installer。

      2.通过浏览器访问管理节点,如http://:8179,进入升级页面,选择升级:

      在这里插入图片描述

      3.可以看到系统已经预先填写好Manager的升级配置,如果没有特殊需求,不建议对此页配置进行更改。

      在这里插入图片描述

      4.点击“继续”,进入环境检查页面:

      在这里插入图片描述

      5.如果环境检查出错,您可以返回上一步对配置进行修改,也可以手工修改后在此页面点击重试。环境检查通过后,系统会开始进行升级,可以看到如下页面:

      在这里插入图片描述

      在这里插入图片描述

      6.升级可能需要一段时间,完成后看到如下页面表示升级成功。

      在这里插入图片描述

      如果升级失败,页面会显示失败信息,您可以点击“重试”可以重新开始升级,或者点击“回滚”则可以将Manager恢复到升级前的状态。

      1.打开客户端浏览器(推荐使用Google Chrome浏览器),输入安装好的管理节点IP或DNS地址,比如http://172.16.3.108:8180/(172.16.3.108是管理节点的IP地址)。访问这个地址,您会看到下面的登录页面。Manager会试着根据您的系统判断您使用的语言,如果当前显示的语言和您想要使用的不同,可以点击右上角的language icon来选择语言。目前Manager支持中文和英文:

      在这里插入图片描述

      2.以admin的身份登录,密码也是admin。

      在这里插入图片描述

      3.登录后,您需要先接受最终用户协议才可以进行进一步操作:

      在这里插入图片描述

      4.您需要给您的集群设置一个名字官网官方wps office 下载网址在哪里(wps下载专版在哪里)。输入集群名字后点击“下一步”:

      在这里插入图片描述

      7.1.1 DNS配置

      如果配置集群中的节点可以通过用主机名互相访问,用户必须配置有效的DNS服务器或/etc/hosts文件。否则请选择需要管理工具配置/etc/hosts,Transwarp Manager会相应为您配置/etc/hosts文件,然后添加节点。

      在这里插入图片描述

      7.1.2 NTP配置

      使用NTP服务器可以确保集群中节点时钟同步,您可以指定外部的NTP服务器或者依赖Transwarp Manager自动选择一台节点作为内部NTP服务器。

      要使用外部NTP服务器为您的集群保证时钟同步,您需要确保您的集群可以连接到该外部NTP服务器。

      如果您需要使用外部NTP服务器,选择“所有节点向外部NTP同步”或“内部NTP服务器向外部NTP同步,其它节点向内部NTP服务器同步”,如下图所示。点击“添加NTP服务器”,输入您想要添加的NTP服务器,并点击“测试链接”来测试添加的NTP服务器的连接。多次点击“添加NTP服务器”可以让您添加多台外部NTP服务器。

      在这里插入图片描述

      全局设定完成后,点击“下一步”。

      您可以在此步骤添加/删除/修改机柜,添加节点,以及配置RPM库。

      1.点击机柜的名字和描述可以对它们进行编辑。节点数会随着您之后的配置自动改变。完成后点击“下一步”。

      在这里插入图片描述

      您可以在这一步添加新的RPM库。自5.2版本起,TDH支持集群的节点运行在不同的操作系统上,您只需要添加RPM库配置,并为节点配置相应的RPM库即可。

      在这里插入图片描述

      2.点击“添加RPM库配置”,并填写相关配置:

      在这里插入图片描述

      3.完成后,点击“保存”来保存您的配置。您可以点击相应RPM的下拉箭头看到详细配置信息:

      在这里插入图片描述

      4.点击“下一步”,为您的集群分配节点。

      在这里插入图片描述

      5.点击“添加节点”,在弹出窗口中按照提示输入符合格式 wps office 官方下载地址在哪里的节点IP,然后点击“搜索”,Transwarp Manager会搜索您输入的节点:

      在这里插入图片描述

      在这里插入图片描述

      6.点击“继续”,将出现进行SSH访问权限配置的界面,在该节点上您可以选择访问节点使用身份,并且提供了两种认证方法:

      所有节点使用同一密码

      如果您选择此选项,请在对应的输入框中输入您管理节点的密码、确认密码、输入ssh端口号:

      在这里插入图片描述所有节点使用同一密钥

      如果您选择此选项,请点击 选择文件 按钮,在目录窗口中选择待上传的密钥文件,并输入ssh端口号;也可以输入密钥口令(可选):

      在这里插入图片描述

      7.上述配置完成后,点击“完成”。节点便添加完成。如果只有一个机柜,Transwarp Manager会自动将所有节点分配给默认机柜。如果您有多个机柜,您可以通过点击“分配机柜”来指明节点和机柜之间的分配关系。如果您的集群中有6个以上的节点,那么您必须配置机柜信息,方便以后的运维和服务配置。

      在这里插入图片描述

      8.在这一步您可以为节点分配RPM库,点击“配置RPM库”,选择一个RPM库。默认使用初始配置。节点添加工作完成后,点击“下一步”继续。

      在这里插入图片描述

      9.系统会开始自动添加节点,添加节点的过程会进行一段时间,成功后您会看到成功页面。

      在这里插入图片描述

      在这里插入图片描述

      10.点击“下一步”开始向集群安装服务。

      如果您已经安装完成,可以在Manager的管理页面向集群添加新的节点。具体步骤请参考《TDH运维手册》。

      接下来,我们介绍如何使用Transwarp Manager向集群安装TDH的服务。

      自6.0版本开始,Transwarp Manager作为一个单独的产品安装,各产品线的产品需要在Transwarp Manager的应用市场里先上传产品包,而后Transwarp Manager会自动完成解压,取代了之前版本的手动解压步骤,使安装服务更加便捷,并且更加灵活,例如,您可以上传不同版本的产品包,来安装不同版本的服务。

      TDH的产品包名称请参考安装介质小节。

      如果您刚刚完成第一个集群的节点安装,您可能会进入以下界面:

      在这里插入图片描述

      在此界面您可以直接点击上传来选择产品包上传。您也可以点击取消,回到Manager主界面,稍后再按照以下步骤上传产品包:

      1.从Manager菜单点击 应用市场,打开应用市场页面:

      在这里插入图片描述

      2.进入应用市场默认页面,从左侧导航栏点击 上传产品包。

      在这里插入图片描述

      3.在上传产品包页面,点击左上角的 上传,并在以下弹出窗口中选择产品包的位置:

      在这里插入图片描述

      4.上传需要一段时间,完成后可以看到状态图标。您也可以点击产品包右侧的查看日志来查看上传进程。

      在这里插入图片描述

      在这里插入图片描述

      5.上传成功后,相应的服务将会出现在安装服务时的选择服务页面。

      在这里插入图片描述

      在这里插入图片描述

      在安装服务之前请再次确认已按照安装前的检查的要求分配资源,并已成功上传产品包。只有产品包上传成功的产品才会出现在选择服务页面。

      TDH中,各个服务将被包装为容器,安装在TCOS上。TCOS是基于Docker和Kubernetes的云操作系统,在部署安装TDH服务时不会显示在服务列表中,默认安装,无需您手动添加。但您可以在后续步骤 服务角色的分配 和配置服务页面为TCOS服务分配角色和配置参数、属性等。

      安装TxSQL前请保证在某个数据盘上已为TxSQL预留至少200G的空间,并且将TxSQL的data dir设置为该磁盘下的某个目录。

      左侧为服务所属产品与版本选择,右侧为具体的服务。当某个产品被上传时,属于该产品的所有服务都将在右侧被列举出来。

      在这里插入图片描述

      如果您上传了多个版本的产品包,您可以点击选择要安装的版本

      在这里插入图片描述点击下一步安装所选择的服务。

      选择想要安装的服务之后,接下来分配各项服务的角色。各服务角色都对应若干个勾选框,每个勾选框代表集群中的一个节点。分配角色的方法为勾选或取消勾选服务右侧对应的节点,被选中的节点将承担该服务角色。例如下图中,四个勾选框被选中代表集群中的这四个节点将承担TOS Slave角色。

      在这里插入图片描述

      Transwarp Manager对服务的角色提供默认分配,如果您想要使用默认的分配,可以点击“下一步”直接进行配置。但是我们推荐您根据实际的生产场景进行规划,同时我们推荐遵守下面的一些分配原则:

      首次安装集群时需要安装TCOS角色和License角色。TOS Registry角色 必须 安装在Transwarp

      Manager所在节点。TOS Slave角色需要安装在每个节点上。推荐 将Zookeeper角色分配给 奇数 个节点,建议集群大小在20个节点以下配置3个,20个节点以上配置5-7个,不超过7个。在集群资源宽裕的情况下,将HDFS

      NameNode和DataNode配置给不同的节点,也就是说避免同一节点既是NameNode又是DataNode的情况。推荐 将Hyperbase Master角色分配给 奇数 个节点。分配了Hyperbase RegionServer的节点 必须 同时拥有HDFS DataNode角色。

      8.3.1 部署角色多实例

      自6.0版本起,Transwarp Manager支持同一个节点上部署同一角色的多个实例。如果服务的某一些角色支持多实例,那么服务创建之后,Transwarp Manager会将每个角色实例放到一个实例组里。您只需要在分配角色步骤添加一个实例组,就可以创建一批角色实例,再为它们分配节点即可。

      例如下图中,默认创建了instancegroup1,点击 + Instance Group 创建实例组instance2,在右侧为它分配节点,即可完成多实例部署。

      在这里插入图片描述

      如果您已经安装完成,您也可以在Transwarp Manager的节点页面通过添加节点来扩容角色。具体步骤请参考《TDH运维手册》。

      8.3.2 角色属性配置

      在这里插入图片描述

      Transwarp Data Hub中每个服务都可以设置该服务在集群中的服务名,用于在集群中指代该服务,这里显示的是HDFS服务的编辑页面。

      如果不设置,默认服务名为“服务+整数”,这是因为在集群计算资源允许的情况下,一些服务可以在集群中有多个实例,这些实例工作时需要通过服务名互相区分(如Zookeeper1和Zookeeper2)。在第一次安装集群时,每个服务都只能安装一个实例,额外的服务实例可以向安装好的集群添加。

      您可以在这一步进行安全配置。如果您当前还没有安装Guardian,您可以选择简单认证模式。如果您安装了Guardian,您可以在这一步选择Kerberos认证模式,并输入KAdmin票据名和密码开启Guardian插件。

      在这里插入图片描述

      在这里插入图片描述

      服务的配置非常重要,请您务必在这一步仔细检查每一项服务的配置。在“配置服务”下,您可以为所有的服务进行配置。

      8.5.1 服务的可配置项

      Transwarp Data Hub中的每个服务都自有一系列的可配置项。

      通用的可配置项包括(以Zookeeper服务为例):

      基础参数:

      WPS office的官网最新下载地址怎么找在这里插入图片描述

      这里显示的是Zookeeper服务的基础参数配置页。如果没有特殊要求,您可以直接使用Transwarp Manager对基础参数提供的默认值。基础参数值不仅在这一步可以设置,安装完成后还可以在服务配置页面进行修改。

      基础参数分为节点特定参数(例如上图中的 zookeeper.peer.communicate.port, zookeeper.leader.elect.port )和非节点特定参数(例如上图中的 tickTime,init.Limit 和 syncLimit )。

      对于非节点特定参数,直接点击右侧的编辑便可以进行修改。

      在这里插入图片描述对于节点特定参数,点击右侧红框中的编辑来打开为节点分别配置的窗口:

      在这里插入图片描述

      在这里插入图片描述

      然后点击节点对应的值进行修改。自定义参数:

      在这里插入图片描述

      所有服务都可以添加自定义参数。这里显示的是Zookeeper服务的自定义参数配置页。属性

      Transwarp Data Hub中部分服务可以配置属性,这里显示的是Guardian服务的属性配置页。

      在这里插入图片描述

      8.5.2 特殊配置要求

      TDDMS参数配置

      请注意 tabletserver.store.datadirs 参数在部署时会默认选择本机所有容量超过200GB的挂载点作为数据目录。如本机不存在容量超过200GB的挂载点,请手动指定数据目录。

      特定角色的配置要求

      由于 NameNode,JournalNode,TCOS Master的etcd,TxSQL,Guardian ApacheDS,ZooKeeper等服务或角色对磁盘IO要求比较高,所以要求这些服务或角色目录不能在同一块磁盘上,并且不能全部在系统盘上,如果可以,应尽量都不安装在系统根目录。

      上述服务或角色所使用的磁盘配置或路径如下。请检查相关配置项的值是否为正确路径。

      服务角色配置项/路径TOSTOS Master (etcd)/var/etcd/data/ZooKeeperZooKeeper Server/var/<service_id>/,如 /var/zookeeper1/HDFSName Nodedfs.namenode.name.dirData Nodedfs.datanode.data.dirJournal Nodehdfs-site.xml 中的配置项 dfs.journalnode.edits.dir,默认为 /hadoop/journalTxSQLTxSQL Serverdata.dir 和 log.dirGuardianApacheDSguardian.apacheds.data.dirGuardianTxSQL Serverdata.dirTranswarp Manager(开启HA时)TxSQL Server/var/lib/transwarp-manager/master/data/txsql/

      配置好参数后,点击“下一步”,在出现的如下所示窗口中可以看到配置信息总览,如果需要修改,可点击“上一步”返回修改。

      在这里插入图片描述

      确认配置信息后,点击 下一步 准备执行安装。

      此时,Transwarp Manager会弹出一个“安装确认”窗口确认开始安装。点击“确认”继续。

      在这里插入图片描述

      安装开始,系统将花费一些时间安装您所选中的服务,请耐心等待。

      在这里插入图片描述

      安装完成后,点击“完成”进入Transwarp Manager的控制面板。

      在这里插入图片描述

      服务安装完成后,用户必须安装TDH客户端,才可以在交互界面上执行各个服务的命令行,如 beeline 、hdfs dfs 等。

      8.7.1 安裝步驟

      安装过程如下。

      1.获取安装包

      在Transwarp Manager界面上点击icon manage → 下载客户端 ,下载TDH客户端。

      在这里插入图片描述

      2.解压文件

      将下载的tdh-client.tar文件放在集群中的任意机器上,然后于该机器上执行如下命令解压文件:

      执行成功后文件会被解压至目录TDH-Client中。

      3.执行脚本

      请执行位于目录TDH-Client内的脚本init.sh。

      您可以以任何用户执行该脚本,但是我们建议以root用户身份执行。当以其他用户身份执行时,需要输入root密码。

      注意 ,用户必须使用source命令执行该脚本。 bash init.sh 和 https://blog.csdn.net/qq_40822132/article/details/init.sh 都不起作用。

      该脚本接受两个参数,默认都是y。第一个参数表示是否修改/etc/hosts文件(y 表示修改,n表示不修改),第二个参数表示是否安装Kerberos Client (y 表示安装,n 表示不安装)。

      因此有如下表格所示的组合方式:

      命令含义source TDH-Client/init.sh修改/etc/hosts文件,并且安装Kerberos clientsource TDH-Client/init.sh y y修改/etc/hosts文件,并且安装Kerberos clientsource TDH-Client/init.sh y n修改/etc/hosts文件,不安装Kerberos clientsource TDH-Client/init.sh n y不修改/etc/hosts文件,安装Kerberos clientsource TDH-Client/init.sh n n不修改/etc/hosts文件,并且不安装Kerberos client

      当使用source命令执行完脚本后,如果输出结中没有出现ERROR,则表示成功。此时可以直接执行相关服务的命令。

      注意:

      1.TDH客户端既可以在集群內也可以在集群外的任意机器上使用。目前只支持Linux环境(CentOS, Ubuntu等),不支持Windows环境。

      2.如果用户修改了集群中服务的配置文件(例如从未开启Kerberos变成开启Kerberos),需要重新下载TDH客户端,并重新安裝。

      3.当开启了Kerberos后,在执行相关服务的命令前,务必注意先进行kinit。

      4.TDH客户端不会自动拷贝keytab文件,所以当它所在的机器本身没有keytab文件时,无法通过kinit -kt <keytab文件>的方式进行kinit。此时必须通过kinit ,并根据提示输入该principal密码的方式进行kinit。

      在安装完您所选择的服务后,您还可通过Transwarp Manager主界面向集群新增服务。

      以下,我们将以EventStore服务为例,演示如何在Transwarp Manager主界面添加并安装服务。

      1.点击Transwarp Manager主页面上集群名旁的

      在这里插入图片描述,您将进入添加服务向导。

      在这里插入图片描述

      2.进入选择服务页面,选择Slipstream,点击“下一步”。

      在这里插入图片描述

      3.选择服务版本,这里会显示出您在上传产品包步骤上传成功的所有版本,选择一个版本。

      在这里插入图片描述

      4.接下来,您需要为Slipstream服务分配角色,若您需要更改依赖的具体服务可在右侧列表中选择,完成后点击“下一步”继续。

      在这里插入图片描述

      5.配置安全。如果您当前还没有安装Guardian,您可以选择简单认证模式。如果您安装了Guardian,您可以在这一步选择Kerberos认证模式,并输入KAdmin票据名和密码开启Guardian插件。

      在这里插入图片描述

      6.这一步,您需要为Slipstream进行服务配置:

      在这里插入图片描述

      配置完成后点击“下一步”。

      7.进入服务总览页面,确认配置无误后,点击“下一步”:

      在这里插入图片描述

      弹出“安装确认”弹框,点击“确认”,开始安装:

      在这里插入图片描述

      8.安装过程一般需要几分钟时间。安装成功后点击“完成”,完成Slipstream安装。

      在这里插入图片描述

      这里仅介绍为TDH环境增加数据节点的扩容步骤,不涉及在原来的节点上增加硬件资源以及进行角色迁移的操作。TDH的节点扩容主要包含扩容前节点检查、扩容节点操作2个步骤。

      与安装TDH前检查的操作类似,在扩容前需要检查新节点的软硬件配置是否符合要求,请参考《TDH安装手册》中的第二章:环境要求和第三章:安装前检查要求

      扩容操作流程包括 添加节点 和 扩容角色 2个阶段。添加节点即添加新的集群节点,扩容角色指为新节点分配服务。

      10.2.1 添加节点

      首先,打开浏览器,访问http://<Manager节点IP>:8180地址,登录进入TDH管理界面。展开Manager页面左侧列表中的 管理 面板点击节点,进入 节点管理页面,点击 add new node 按钮,进入节点扩容向导过程,如下:

      在这里插入图片描述

      10.2.1.1 选择集群

      进入扩容节点向导后,选择需要增加节点的集群。完成后点击“下一步”。

      在这里插入图片描述

      10.2.1.2 全局设定

      1.DNS配置

      如果配置集群中的节点可以通过用主机名互相访问,您必须配置有效的DNS服务器或/etc/hosts文件。否则请选择需要Transwarp Manager配置/etc/hosts,Transwarp Manager会相应为您配置/etc/hosts文件。建议和集群安装时的设置保持一致,完成后点击“下一步”。

      在这里插入图片描述

      1.NTP配置

      使用NTP服务器可以确保集群中节点时钟同步,您可以指定外部的NTP服务器或者依赖Transwarp Manager自动选择一台节点作为内部NTP服务器。建议和集群安装时的设置保持一致。

      要使用外部NTP服务器为您的集群保证时钟同步,您需要确保您的集群可以连接到该外部NTP服务器。

      如果您需要使用外部NTP服务器,选择“所有节点向外部NTP同步”或“内部NTP服务器向外部NTP同步,其它节点向内部NTP服务器同步”,如下图所示官网WPS office下载的地址怎么找。点击“添加NTP服务器”,输入您想要添加的NTP服务器,多次点击“添加NTP服务器”可以让您添加多台外部NTP服务器。点击“下一步”时,Manager会自动测试添加的NTP服务器的连接。

      在这里插入图片描述

      全局设定完成后,点击“下一步”。

      10.2.1.3 编辑机柜

      编辑机柜步骤与安装步骤中编辑机柜类似,可以添加机柜来分配扩容过程中新增的节点。点击 在这里插入图片描述

      按钮,点进入机柜添加向导过程,如下:

      在该步骤中只能新增机柜,或对新增的机柜进行编辑操作,已配置的机柜信息不可修改或编辑。

      在这里插入图片描述

      完成机柜编辑后点击“确认”,点击“下一步”。

      10.2.1.4 配置仓库

      配置仓库步骤与安装步骤中配置仓库类似,默认选择集群安装时的初始配置,您也可以在这一步添加新的RPM库。自5.2版本起,TDH支持集群的节点运行在不同的操作系统上,您只需要添加RPM库配置,并为节点配置相应的RPM库即可。点击 add new repo

      ,并填写相关配置,如下图:

      在这里插入图片描述

      完成后,点击“确认”来保存您的配置。您可以拖动鼠标到相应RPM的下拉箭头看到详细配置信息:

      在这里插入图片描述

      点击“下一步”,为您的集群分配节点。

      10.2.1.5 节点分配

      添加节点

      节点分配步骤与安装步骤中节点分配类似,点击 add new node

      ,在弹出窗口中按照提示输入符合格式的节点IP,然后点击“搜索”,Transwarp Manager会搜索您输入的节点,勾选需要扩容的节点进行添加。

      在这里插入图片描述

      点击“下一步”,将出现进行SSH访问权限配置的界面,在该节点上您可以选择访问节点使用身份,并且提供了两种认证方法:

      所有节点使用同一密码

      如果您选择此选项,请在对应的输入框中输入您管理节点的密码、确认密码、输入ssh端口号:

      在这里插入图片描述

      所有节点使用同一密钥

      如果您选择此选项,请点击 选择文件 按钮,在目录窗口中选择待上传的密钥文件,并输入ssh端口号;也可以输入密钥口令(可选):

      在这里插入图片描述

      点击“确定”后,回到节点分配界面对节点进行机柜和仓库配置。

      分配机柜

      勾选需要分配机柜的节点,点击“分配机柜”为节点进行配置,如果您有多个机柜,以此来指明节点和机柜之间的分配关系,方便以后的运维和服务配置。

      在这里插入图片描述

      配置仓库

      勾选需要分配RPM库的节点,点击“配置仓库”选择一个RPM库。配置完成后,点击“确定”继续。

      在这里插入图片描述

      点击“下一步”,进行节点安装。

      安装节点

      系统会开始自动添加节点,添加节点的过程会进行一段时间,成功后您会看到成功页面。完成后,点击“下一步”继续。

      在这里插入图片描述

      10.2.2 扩容角色

      10.2.2.1 分配角色

      在分配角色界面,您可以点击服务列表的下拉箭头以展开明细,请参考界面下方的节点配置建议对新节点进行服务角色的分配,扩容前已配置角色的节点不要修改或编辑。配置完成后,点击“下一步”继续。

      在这里插入图片描述

      10.2.2.2 配置服务

      服务的配置非常重要,请您务必在这一步仔细检查每一项服务的配置。鼠标悬浮于值“详情”可查看参数值,您可以点击“编辑”进入参数修改界面。

      为保障新节点正常运行,这一步注意参考老节点的配置修改新节点的参数,特别是YARN NodeManager、Inceptor Executor等角色服务的相关参数

      在这里插入图片描述

      点击“编辑”或批量修改,对参数值进行修改。完成后,点击保存退出。

      在这里插入图片描述配置好参数后,点击“下一步”,继续

      10.2.2.3 应用修改

      系统会开始自动为新节点配置角色服务,应用修改稿的过程会进行一段时间,成功后您会看到成功页面。至此,扩容操作步骤完成。

      在这里插入图片描述

      通俗说的双网卡环境,管理面对应外网网段,业务面对应集群内网网段

      需要注意的是必须从业务面网段安装服务,具体安装步骤同本手册第六章《安装Manager》。

      集群安装部署好后,通过手动修改配置的方式达到管理面与业务面隔离。

      11.2.1 修改manager配置文件。

      修改Manager所在节点的 /etc/transwarp-manager/master/application-user.properties 文件,将server.address改为该节点管理面网段ip(manager开启了ha的情况下两个manager节点都需修改为各自的管理面网段ip)

      然后重启transwarp-manager服务

      systemctl restart transwarp-manager

      11.2.2 修改Aquila配置,保证管理面正常访问aquila服务

      双平面隔离的场景下,通过业务面访问aquila 8666页面失败(业务面网段可以正常访问管理面网段),rootcause:aquila的配置中是通过hostname port的方式访问8180,hostname解析的是非8180监听的业务面ip导致访问失败。

      操作步骤:

      (1) 手动修改aquila server所在节点/etc/aquila/conf/server/application.yml文件:

      (2) 通过kubectl delete pod 的方式重启aquila server服务即可。

      页面配置服务重启会导致配置文件被刷新回去

      11.2.3 修改集群机器yum repo源配置

      保证yum正常使用,所有机器的配置都需要修改。进入节点目录/etc/yum.repos.d

      (1)修改文件os.repo

      (2)修改文件transwarp.repo

      Transwarp Data Hub采用许可证授权方式提供相关服务,因此在安装过程中需要输入许可证并激活以启用所有服务。

      将鼠标移至Transwarp Manager主界面左侧的“管理”菜单,在弹出的菜单栏中点击“许可证”进入许可证管理页面。

      在这里插入图片描述

      许可证管理页面分为“摘要”和“角色”两个板块。“摘要”板块显示许可服务的健康状态,Server Key、序列号、当前许可证情况,点击“启动”和“停止”可以启动或者停止许可证集群。“许可证详情”板块显示当前每一个已安装服务的License类型、版本、节点容量、License到期时间。“角色”板块展示了许可服务的角色运行的节点、每个角色运行的健康状态。

      在这里插入图片描述

      在这里插入图片描述

      点击“查看/更改许可证”可以查看/更改一个许可证,系统会弹出以下窗口。

      在这里插入图片描述

      如果您还没有购买商业版的Transwarp Data Hub,您可以通过 用户中心 申请社区版的License,关于社区版的安装与使用请参阅 社区版介绍 。

      如果您购买了商业版的Transwarp Data Hub,我们将为您提供序列号和License Key。将两条信息都输入后点击“保存”,您便可以开始使用商业版的Transwarp Data Hub。

      如果您已经上传过License,您可以点击“查看/更改许可证”来查看您的License Key。

      当许可证离过期还有7天时,控制面板上会显示告警信息,及时提醒用户更换许可证。

      1.问题:客户机房在节假日期间断电,需要提前进行哪些操作?

      因直接断电在极端情况下会影响到TDH的稳定性,我们推荐客户在断电之前,优先在manager停止集群所有服务,再用servicetranswarp-managerstop命令停止manager。待机器上电后使用servicetranswarp-managerstart启动manager,并登入启动全部服务。

      2.问题: 如何修改CentOS和Redat 操作系统中的hostname?

      使用 hostnamectl set-hostname 命令。 注意: 安装完成之后尽量不要修改hostname,很多参数和配置都与hostname挂钩;在/etc/hostname文件中localhost 必须在127.0.0.1的第一个,例如:

      3.问题: 在安装第一步hostname检查中就失败退出TDH Transwarp Manager安装,如何解决?

      登入到管理节点上执行hostname指令和/etc/hosts里的IP 后面的名字比较,看名字是否匹配。如不匹配,修改/etc/hosts文件,确保集群中的所有节点的hostname都正确。

      4.问题: 为Docker创建逻辑卷组时,在执行pvcreate /dev/xxx后出现Can’t open /dev/vdb exclusively.Mounted filesystem? 如何解决?

      该情况表示分区被占用,需要查看是否挂载文件系统。如果已挂载需要umount掉。

      5.问题: 为Docker创建逻辑卷组时,在执行pvcreate /dev/xxx后出现“Can’t initialize physical volume “/dev/vdb” of volume group “docker” without -ff” 如何解决?

      该情况表示物理卷已经创建,不需要再重复创建。可以直接执行后面步骤。

      6.问题: 安装后访问http://hostname:8180出错可能有哪些原因?

      1.可能是安装出现问题:请仔细按照安装文档进行安装。

      2.确保访问方式是http。

      3.确保http的8180端口没有被防火墙阻止。

      7.问题:节点断开可能有哪些原因?

      1.可能是硬件原因(网线,网口,交换机等问题)。

      2.可能是机器防火墙屏蔽了ssh。

      8.问题: 如何检查防火墙是否开启?

      1.在命令行状态下执行setup命令,按菜单指引防火墙配置→不选防火墙开启,然后保存设置。

      2.在命令行下面执行service iptables stop关闭防火墙服务。

      9.问题: Transwarp Data Hub对Hostname是否有要求?

      Transwarp Data Hub对需要添加或安装的节点名有一定的要求,必须是数字,字母或符号组成的,不支持使用_(下划线)和.(点)的hostname,比如TDH1.cluster.com, TDH_2.cluster.com等。 用户需要编辑/etc/sysconfig/network文件里的hostname名字。

      10.问题: Transwarp Manager对网络延迟是否有要求?

      Transwarp Manager对节点和服务添加中对网络的延迟有一定要求,如果客户端浏览器到Transwarp Manager的延迟过长会导致添加失败,在客户端使用ping程序ping一下安装Transwarp Manager服务器的延迟,如果超过2ms, 可能会发生安装失败的问题。

      11.问题: HDFS Format NameNode失败怎么办?

      该问题表现为安装服务进行到HDFS的安装时出现。

      在这里插入图片描述

      解决方法为:确定该集群上是否安装过HDFS。如果安装过HDFS,且需要保留其中的数据,请不要继续下面的步骤,而应进行备份或升级操作。如果该集群上的没有需要保留数据的HDFS,可继续下面的步骤,清空HDFS中的残存数据。

      a.在所有Journal Node上,清空(清空指删除目录中的所有内容,但保留目录,下同)/hadoop/journal 中的所有内容,然后执行:

      b.在所有Name Node上,清空dfs.namenode.name.dir配置的相应目录的所有内容,dfs.namenode.name.dir参数值在/etc//conf/hdfs-site.xml文件中(为集群上之前安装的HDFS服务的服务名,下同。)

      c.在所有Data Node上,清空dfs.datanode.data.dir配置的相应目录的所有内容,dfs.datanode.data.dir参数值在/etc//conf/hdfs-site.xml文件中。

      12.问题:Docker分区所在磁盘发生故障,如何快速恢复服务?

      1.运行 mount /dev/<p_name> /var/lib/docker,将分区要求里预留的Docker备用分区 /dev/<p_name> 挂载到 /var/lib/docker;

      2.运行 systemctl restart docker 重启Docker服务;

      3.运行 docker info 验证重启后的Docker是否正常。如果没有报错,则说明Docker正常运行。