您的位置: 网界网 > 网络学院-云计算 > 正文

AWS发力大数据分析 推出全新EC2实例

2014年07月28日 16:59:13 | 作者:佚名 | 来源:比特网 | 查看本文手机版

摘要:亚马逊网络服务(AWS)发布了两项新的EC2实例,用于应用和分析工作负荷,还有AWS Data Pipeline(允许企业在各种系统中迁移数据的网络服务)。 AWS发力大数据分析 推出全新EC2实例

标签
AWS
EC2
大数据

亚马逊网络服务(AWS)发布了两项新的EC2实例,用于应用和分析工作负荷,还有AWS Data Pipeline(允许企业在各种系统中迁移数据的网络服务)。

这一消息是由AWS CTO Werner Vogels在首届用户大会“re: Invent”上发布的。Vogels表示,他们将帮助企业快速构建全新高级应用。

为数据分析定制的这两项新的实例分别为集群高内存EC2实例和高存储EC2实例。

Vogels说:“对于一直以来试图进行大型分析的企业,高存储EC2实例正是为你准备的。”它为用户提供了48TB的容量。

集群高内存EC2实例则为构建大型内存应用的企业量身定做。

另外,Amazon Data Pipeline将帮助企业创建自动和预定的数据流。

Data Pipeline是一种BI数据集成云服务,能够实现组织大数据[注]工作流程的自动化。

“Data Pipeline预先与现有AWS数据源进行集成,并与第三方和内部源相连接。”

简单的界面设计

会上,AWS首席数据科学家Matt Wood现场演示了该服务程序,用户只要运用简单的拖放就能够创建一条数据流水线,编制数据强化项目。

据Gartner首席调研分析师Kyle Hilgendorf称,Data Pipeline用户界面十分简洁。他说:“我希望AWS的管理操纵技术会借由Data Pipeline GUI走的更远。”

另外,数据服务还能够创建数据分析的日报表和周报表。

Wood说:“有一项最常见的客户需求,我们充分理解,他们想要知道如何才能对从Dynamo DB到Amazon S3的数据库进行自动复制;现在Data Pipeline可以做到了。”

既然存在这么多不同的云数据收集系统——DynamoDB、Amazon S3、EMR和全新的数据仓库服务Redshift等等,那么数据集成就会变得更加困难。

“Data Pipeline将会帮助企业克服大数据挑战,把所有不同源的数据整合到同一个系统中。”

21世纪的IT架构和应用

Vogels在演讲中分享了他对21世纪应用和IT架构的看法:“新的应用程序必须具备高弹性、以数据为导向、适应性强和可控性等特点。”

“可控性”包含对成本的控制;“以数据为导向”即企业不断检查整个应用分布链并将所有数据存入日志的需要。

“编码总会有失败的时候。不要把这些失败看作是例外(+本站微信networkworldweixin),你应当注重构建应用中的弹性。”

Hold住自己的情感寄托

最后,他呼吁企业不要想当然,并建议他们在科技高速发展的时代增强适应能力。

“不要依赖于你的IT架构,服务器不会照顾到你的情感。”

对于云安全问题,他也有话要说:“当亚马逊决定将所有服务迁移到AWS云端的时候,我们对所有数据进行了加密处理,包括流动数据和静态数据。”

企业应当从细微处考虑数据集成的安全性。

“旧时代拼的是资源,而新时代拼的是业务。因此,企业必须从业务的角度审视IT架构和应用。”

参考资料

1.大数据:(Big Data),研究机构Gartner给出了这样的定义。“大数据”是需要新处理模式才能具有更强的决策力、洞察发现力和流程优化能力的海量、高增长率和多样化的信息资产。 ...详情>>

[责任编辑:孙可 sun_ke@cnw.com.cn]