BlueData现在在AWS中运行Hadoop保持本地数据

生活2020-02-25 09:13:50
导读 BlueData的软件使企业能够在本地虚拟化环境中运行Apache Hadoop和Spark部署,该公司正在扩展其功能。随着6月22日发布其最新的EPIC平台版本

BlueData的软件使企业能够在本地虚拟化环境中运行Apache Hadoop和Spark部署,该公司正在扩展其功能。随着6月22日发布其最新的EPIC平台版本,BlueData用户现在可以在Amazon Web Services(AWS)实例中运行其计算,同时将其数据保留在本地,这是许多受管制行业和欧盟公司的要求。

因此,总部位于加利福尼亚州圣克拉拉的BlueData声称是第一家在本地或云中提供大数据即服务(BDaaS)的供应商。

长期以来人们一直认为,计算和存储必须在物理上放置在一起才能提供最佳的Hadoop性能。BlueData认为情况已不再如此,它提供的产品是在云中运行计算时在内部存储保持本地化而不会损失任何性能。

EPIC具有一个应用程序商店和一个应用程序工作台,这些应用程序和应用程序工作台允许“自带应用程序”功能处理大数据。这很重要,因为大多数公共云环境仅提供一个具有最低可配置性的应用程序工具箱。

但是,BlueData支持许多不同的工具包,因此可以为Hadoop自定义环境,而另一个环境可能更以开发人员为中心-全部位于同一共享基础架构上。

BlueData的EPIC软件平台的夏季发行版包括:

- 一键式安装预配置的码头工人图片:几个大的数据分布和应用程序来预配置为在BlueData EPIC App Store的泊坞窗图像,并可通过一键式部署安装加速时间与大数据分析的商业价值。此新版本为Hadoop发行版的最新版本提供了参考图像,例如Cloudera的CDH 5.5.1和CDH 5.7,Hortonworks的带有Ambari 2.2的HDP 2.4和MapR 5.1。App Store的其他更新包括独立的Spark 1.6以及其他常见框架和应用程序的最新版本,例如Cassandra 2.1,Kafka 0.9和Splunk Enterprise 6.3。

- 自带应用程序: BlueData确保与大数据框架和应用程序的广泛生态系统兼容。但是,大多数企业都有特定且独特的要求,以使大数据环境符合其内部标准。对于不同的用户组或不同的用例,通常需要使用不同的工具,并且这些用户通常需要其首选工具的最新版本。为了满足这些需求,BlueData扩展了其App Workbench功能,以使管理员可以轻松地在其App Store中修改和更新预配置的Docker映像,或为其他应用程序和工具创建新映像。

- 统一的用户认证和授权: BlueData继续在新功能的投资,以确保企业级的安全,治理与合规的多租户大数据环境。新的增强功能包括扩展LDAP / AD集成的范围,以实现用户到租户的映射(例如,在用户加入租户,切换租户或离开组织时管理用户),以及为Hadoop和Spark添加对虚拟Docker节点的访问控制。这些功能基于在SpringData中为BlueData EPIC添加的一些新的安全性增强功能。

BlueData客户可以在自己的App Store中填充Docker映像,以获取其用户想要的最新版本的大数据应用程序和工具(例如,Spark与Jupyter或Zeppelin笔记本集成),以提供灵活性,选择性和可配置性。将这些图像添加到App Store后,数据科学家和开发人员可以使用BlueData的自助服务界面立即为这些工具(具有预建的安全性,SSH,网络和远程数据访问)启动可立即运行的群集。

新的BlueData EPIC夏季版本和App Workbench的实时演示将在6月28日至30日在加利福尼亚州圣何塞举行的Hadoop峰会的 1505号展位上提供。

您可以在6月28日下午12点的Hadoop峰会上的标题为“城镇中有新游侠!大数据即服务部署中的端到端安全性和审计”的主题中了解大数据安全注意事项。下午20时与BlueData解决方案管理总监Nanda Vijaydev和BlueData软件工程师Abhiraj Butala进行了交流。

在单独的公告中,BlueData还引入了对Amazon Web Services和针对大数据的多云大数据部署的支持。

免责声明:本文由用户上传,如有侵权请联系删除!