コースコード:DB117

OSSを活用したビッグデータ解析基盤構築体験

コース概要

マシン実習
クラウド実習環境(コース開始から2週間利用可)

HadoopやHadoop関連製品を使ったログ解析システムとクラスタ分析システムの構築を通して、ビッグデータ解析基盤に必要な機能、各製品の役割、およびOSSを活用する際の留意点や導入方法を紹介します。

受講料 

43,200円(税込)/40,000円(税抜)

開始日(申込締切前)

東京 3/17

講習日数

1日間

講師からのメッセージ

芝浦会場の開催は、クラウド型実習サービスに対応しています。

本コースは「ビッグデータシステムの全体像を知りたい」というお客様の意見から生まれました。Sqoop、Mahout、Hive、FlumeといったHadoopのエコプロダクトを活用し、実際にビッグデータシステムを構築することで、システムに必要な構成要素を理解できます。


本コースは以下に該当する方におすすめです。

■これからビッグデータビジネスをはじめる方
■ビッグデータビジネスに関わる営業部門の方
■ビッグデータビジネスに関わる新入社員の方

到達目標

  • ・ OSSを活用する利点について説明できる。
  • ・ ビッグデータ解析システムの中でのHadoop HDFSとNoSQLの違いについて説明できる。
  • ・ ログコレクターやデータローダー使った外部リソースのロード方法について説明できる。
  • ・ ビッグデータ解析システムの中でのHadoop Map/Reduceの役割と活用方法について説明できる。
  • ・ 独自言語でMap/Reduceを実行するための実行環境について説明できる。
  • ・ 機械学習ライブラリの概要と実現できる処理について説明できる。

前提知識

「ビッグデータ概説」コースを修了、または同等知識をお持ちの方。

研修コースマップ

ビッグデータ

  • 分析基盤技術

コース内容

カリキュラム詳細

OSSを活用したビッグデータ解析基盤構築体験

第 1 章ビッグデータ解析システム概要
ビッグデータとは
Hadoop、NoSQL概要
ビッグデータの生成
ビッグデータのためのシステム構成
OSS活用の留意点
第 2 章ビッグデータの転送・蓄積
ビッグデータの転送・蓄積の概要
データの蓄積(NoSQL)
データの蓄積(HDFS)
ログコレクターによるインポート
データローダーによるインポート
ソーシャルメディアからのデータのロード
第 3 章データの整理・変換
データの整理・変換の概要
Map/Reduce
第 4 章Map/Reduce用解析エンジン の活用
Map/Reduce用解析エンジン の概要
クエリエンジン
機械学習ライブラリ
Mahoutによるレコメンデーション
Mahoutによるクラスタリング
Mahoutによるクラス分類・予測

 
AM
PM
1日目
1.ビッグデータ解析システム概要
2.ビッグデータの転送・蓄積
3.データの整理・変換
4.Map/Reduce用解析エンジン の活用

開催スケジュール詳細・お申込

「カートに追加」欄の追加をクリックすると、web申込が可能です。
申込期限およびキャンセル期限は、各締切日の16:30です。

◎・・・6名様以上、空いております。
○・・・1~5名様の空きがございます。
△・・・キャンセル待ちとなります。(ただし、備考欄に注記がある場合はキャンセル待ちではありませんので、注記をご参照ください)
週2回空席状況を更新します。◎○でも、既に満席の場合はご了承下さい。詳細な空席状況は研修申込センターにお問い合せください。

[スケジュール更新日付:2016年08月29日]

地区 開催番号 会場名 開始日~終了日 日数 講習時間 申込締切日 空席
状況
備考 カートに追加
キャンセル締切日
東京 DB117501K 芝浦研修センター(第二吾妻ビル) 2017/03/17~
2017/03/17
1日間 09:30~
16:30
2017/03/15 追加
2017/03/13
おすすめ情報