オープンデータ関連のニュースです。
日本語
Apache Hadoop は多くの大きなデータ環境の中心に、大規模なデータ集約型アプリケーションをサポートします。オープン ソース ソフトウェア コンポーネントおよび関連ツールのキャプチャ、処理、管理、解析データ、および Hadoop クラスターの低い全体コストの様々 な組織の多くを魅了しています。しかし、このシリーズは、検査としてオープン ソースの Hadoop フレームワークには、そんなより堅牢なパフォーマンスと機能の機能だけでなく、メンテナンスを必要とする企業のみご利用いただけます、Hadoop の商用ソフトウェア ディストリビューションのサポートに回っています。 Hadoop は Apache ソフトウェア財団のオープン ソースのプロセスを介して管理されている技術は、Hadoop ディストリビューション ベンダーの販売モデルはプロプライエタリなソフトウェア開発企業のそれと異なります。
続きを読む…
English
Apache Hadoop is at the heart of many big data environments, supporting large-scale, data-intensive applications. Its variety of open source software components and related tools for capturing, processing, managing and analyzing data, and the low overall cost of Hadoop clusters, are alluring to lots of organizations. But, as this series has examined, the open source Hadoop framework only offers so much, and companies that need more robust performance and functionality capabilities as well as maintenance and support are turning to commercial Hadoop software distributions. Because Hadoop is a technology that’s managed via The Apache Software Foundation’s open source process, the sales model of Hadoop distribution vendors differs from that of proprietary software development companies.
Read more…