管理大数据存储的九大技巧

2016/10/13 9:41:07 来源:DTDATA分享 作者:潜川编辑 分类:特别报道

 
       数据本地化是为了确保大数据集存储在计算节点附近便于分析。对于Hadoop,这意味着管理数据节点,向MapReduce提供存储以便充分执行分析。它实用有效但也出现了大数据存储集群的独立操作问题。以下九项是Hadoop环境中管理大数据存储技巧。

       分布式存储

       传统化集中式存储存在已有一段时间。但大数据并非真的适合集中式存储架构。Hadoop设计用于将计算更接近数据节点,同时采用了HDFS文件系统的大规模横向扩展功能。

       虽然,通常解决Hadoop管理自身数据低效性的方案是将Hadoop 数据存储在SAN上。但这也造成了它自身性能与规模的瓶颈。现在,如果你把所有的数据都通过集中式SAN处理器进行处理,与Hadoop的分布式和并行化特性相悖。你要么针对不同的数据节点管理多个SAN,要么将所有的数据节点都集中到一个SAN。

       但Hadoop是一个分布式应用,就应该运行在分布式存储上,这样存储就保留了与Hadoop本身同样的灵活性,不过它也要求拥抱一个软件定义存储方案,并在商用服务器上运行,这相比瓶颈化的Hadoop自然更为高效。

       超融合VS分布式

       注意,不要混淆超融合与分布式。某些超融合方案是分布式存储,但通常这个术语意味着你的应用和存储都保存在同一计算节点上。这是在试图解决数据本地化的问题,但它会造成太多资源争用。这个Hadoop应用和存储平台会争用相同的内存和CPU。Hadoop运行在专有应用层,分布式存储运行在专有存储层这样会更好。之后,利用缓存和分层来解决数据本地化并补偿网络性能损失。

       避免控制器瓶颈
 
       实现目标的一个重要方面就是——避免通过单个点例如一个传统控制器来处理数据。反之,要确保存储平台并行化,性能可以得到显著提升。

       此外,这个方案提供了增量扩展性。为数据湖添加功能跟往里面扔x86服务器一样简单。一个分布式存储平台如有需要将自动添加功能并重新调整数据。

       删重和压缩

       掌握大数据的关键是删重和压缩技术。通常大数据集内会有70%到90%的数据简化。以PB容量计,能节约数万美元的磁盘成本。现代平台提供内联(对比后期处理)删重和压缩,大大降低了存储数据所需能力。


       合并Hadoop发行版

       很多大型企业拥有多个Hadoop发行版本。可能是开发者需要或是企业部门已经适应了不同版本。无论如何最终往往要对这些集群的维护与运营。一旦海量数据真正开始影响一家企业时,多个Hadoop发行版存储就会导致低效性。我们可以通过创建一个单一,可删重和压缩的数据湖获取数据效率

       虚拟化Hadoop

       虚拟化已经席卷企业级市场。很多地区超过80%的物理服务器现在是虚拟化的。但也仍有很多企业因为性能和数据本地化问题对虚拟化Hadoop避而不谈。

       创建弹性数据湖

       创建数据湖并不容易,但大数据存储可能会有需求。我们有很多种方法来做这件事,但哪一种是正确的?这个正确的架构应该是一个动态,弹性的数据湖,可以以多种格式(架构化,非结构化,半结构化)存储所有资源的数据。更重要的是,它必须支持应用不在远程资源上而是在本地数据资源上执行。

       不幸的是,传统架构和应用(也就是非分布式)并不尽如人意。随着数据集越来越大,将应用迁移到数据不可避免,而因为延迟太长也无法倒置。

       理想的数据湖基础架构会实现数据单一副本的存储,而且有应用在单一数据资源上执行,无需迁移数据或制作副本。

       整合分析

       分析并不是一个新功能,它已经在传统RDBMS环境中存在多年。不同的是基于开源应用的出现,以及数据库表单和社交媒体,非结构化数据资源(比如,维基百科)的整合能力。关键在于将多个数据类型和格式整合成一个标准的能力,有利于更轻松和一致地实现可视化与报告制作。合适的工具也对分析/商业智能项目的成功至关重要。

       大数据遇见大视频

       大数据存储问题已经让人有些焦头烂额了,现在还出现了大视频现象。比如,企业为了安全以及操作和工业效率逐渐趋于使用视频监控,简化流量管理,支持法规遵从性和几个其它的使用案例。很短时间内这些资源将产生大量的内容,大量必须要处理的内容。如果没有专业的存储解决方案很可能会导致视频丢失和质量降低的问题。

       没有绝对的赢家

       Hadoop的确取得了一些进展。那么随着大数据存储遍地开花,它是否会成为赢家,力压其它方案,其实不然。

比如,基于SAN的传统架构在短期内不可取代,因为它们拥有OLTP,100%可用性需求的内在优势。所以最理想的办法是将超融合平台与分布式文件系统和分析软件整合在一起。而成功的最主要因素则是存储的可扩展性因素。

相关资讯

  • 绿色低碳趋势下,DTDATA携业内专家探讨如何实现数据中心高质量发展

    在节能减排、“碳中和”趋势下,绿色节能、低碳、可持续发展也成为了数据中心行业发展主基调。伴随着数据中心规模持续高速增长,也带来了诸多挑战,如何实现数据中心高质量发展?看专家们怎么说。

    2022/3/14 10:00:31
  • 数据中心节能监察:广州、深圳发布最新政策

    最近国家发改委频频为数据中心发声,广州、深圳也随之迎来了6月新政。

    2021/6/18 15:45:32
  • 黑石持续重仓IDC数据中心的背后

    6月7日,黑石集团(Blackstone Group Inc., BX)达成一项交易,以约67亿美元(约合428.57亿元人民币)收购数据中心运营商QTS Realty Trust Inc.(以下简称QTS),并将该数据中心运营商私有化。这是自2015年黑石加大数据业务投资力度后又一次收购数据中心项目。

    2021/6/9 10:44:08
  • GLOBAL SWITCH香港数据中心探秘~世界级的绿色数据中心

    与所有其他Global Switch数据中心一样,Global Switch香港数据中心提供了具有高容灾能力的环境,可通过多种连接方式支持可扩展的、灵活的解决方案。香港数据中心还符合Global Switch一流的运营和环境管理流程,并拥有超过Tier III的运营水准,成为了中国公司海外业务扩张布局的…

    2021/5/26 11:40:39

共有访客发表了评论 网友评论

验证码: 看不清楚?