ビッグデータはますます注目を集めており、ビッグデータのいくつかの構成要素に精通していないと、自慢できるキャッチフレーズさえありません。 少なくとも、hadoop、hdfs、mapreduce、yarn、kafka、spark、zookeeper、neo4j について話せる必要があります。これらは、披露するのに必須のスキルです。 Spark についてはインターネット上に詳しい紹介がたくさんあります。検索してみてください。次に、スタンドアロン版 Spark のインストールと簡単な使用方法について説明します。 0. JDK をインストールします。私のマシンにはすでに JDK がインストールされているので、この手順はスキップできます。 JDK はもはや定番であり、言うまでもなく、Java/Scala を使用する際には欠かせません。 ubuntu@VM-0-15-ubuntu:~$ java -バージョン openjdk バージョン "1.8.0_151" OpenJDK ランタイム環境 (ビルド 1.8.0_151-8u151-b12-0ubuntu0.16.04.2-b12) OpenJDK 64 ビット サーバー VM (ビルド 25.151-b12、混合モード) ubuntu@VM-0-15-ubuntu:~$ 1. 必ずしも Hadoop をインストールする必要はなく、特定の Spark バージョンを選択するだけです。 Spark にはデフォルトで Scala シェルが付属しているため、Scala をダウンロードする必要はありません。Spark の公式 Web サイトにアクセスしてダウンロードしてください。Hadoop のない環境では、spark-2.2.1-bin-hadoop2.7 を選択し、次のように解凍します。 ubuntu@VM-0-15-ubuntu:~/taoge/spark_calc$ ll 合計 196436 drwxrwxr-x 3 ubuntu ubuntu 4096 2月 2日 19:57 ./ drwxrwxr-x 9 ubuntu ubuntu 4096 2月 2日 19:54 ../ drwxrwxr-x 13 ubuntu ubuntu 4096 2月2日 19:58 spark-2.2.1-bin-hadoop2.7/ -rw-r--r-- 1 ubuntu ubuntu 200934340 2月2日 19:53 spark-2.2.1-bin-hadoop2.7.tgz 2. Spark には Python バージョンと Scala バージョンがあります。次に、次のように Scala バージョンのシェルを使用します。 ubuntu@VM-0-15-ubuntu:~/taoge/spark_calc/spark-2.2.1-bin-hadoop2.7$ bin/spark-shell Spark のデフォルトの log4j プロファイルを使用する: org/apache/spark/log4j-defaults.properties デフォルトのログ レベルを「WARN」に設定しています。 ログ レベルを調整するには、sc.setLogLevel(newLevel) を使用します。SparkR の場合は、setLogLevel(newLevel) を使用します。 18/02/02 20:12:16 警告 NativeCodeLoader: ご使用のプラットフォームのネイティブ Hadoop ライブラリをロードできません... 該当する場合は組み込み Java クラスを使用します 18/02/02 20:12:16 警告 Utils: ホスト名 localhost はループバック アドレス 127.0.0.1 に解決されます。代わりに 172.17.0.15 を使用します (インターフェイス eth0) 18/02/02 20:12:16 警告ユーティリティ: 別のアドレスにバインドする必要がある場合は、SPARK_LOCAL_IP を設定してください Spark コンテキスト Web UI は http://172.17.0.15:4040 で利用可能です。 Spark コンテキストは 'sc' として利用可能です (マスター = local[*]、アプリ ID = local-1517573538209)。 Spark セッションは「spark」として利用可能です。 ようこそ ____ __ / __/__ ___ _____/ /__ _\ \/ _ \/ _ `/ __/ '_/ /___/ .__/\_,_/_/ ///\_\ バージョン 2.2.1 /_/ Scala バージョン 2.11.8 (OpenJDK 64 ビット サーバー VM、Java 1.8.0_151) を使用 式を入力して評価します。 詳細については、:help と入力してください。 スカラ> 簡単な操作を実行するには: scala> val 行 = sc.textFile("README.md") 行: org.apache.spark.rdd.RDD[String] = README.md MapPartitionsRDD[1] テキストファイル <console>:24 scala> 行数() res0: ロング = 103 scala> 行.first() res1: 文字列 = # Apache Spark scala> :終了 ubuntu@VM-0-15-ubuntu:~/taoge/spark_calc/spark-2.2.1-bin-hadoop2.7$ ubuntu@VM-0-15-ubuntu:~/taoge/spark_calc/spark-2.2.1-bin-hadoop2.7$ ubuntu@VM-0-15-ubuntu:~/taoge/spark_calc/spark-2.2.1-bin-hadoop2.7$ ubuntu@VM-0-15-ubuntu:~/taoge/spark_calc/spark-2.2.1-bin-hadoop2.7$ wc -l README.md 103 README.md ubuntu@VM-0-15-ubuntu:~/taoge/spark_calc/spark-2.2.1-bin-hadoop2.7$ head -n 1 README.md # アパッチスパーク ubuntu@VM-0-15-ubuntu:~/taoge/spark_calc/spark-2.2.1-bin-hadoop2.7$ ビジュアルウェブページを見てみましょう。Windowsでは、http://ip:4040と入力します。 さて、この記事は簡単なインストールについてのみ説明しています。後ほど Spark について詳しく紹介していきます。 要約する 以上がこの記事の全内容です。この記事の内容が皆様の勉強や仕事に何らかの参考学習価値をもたらすことを願います。123WORDPRESS.COM をご愛顧いただき、誠にありがとうございます。これについてもっと知りたい場合は、次のリンクをご覧ください。 以下もご興味があるかもしれません:
|
<<: MySQL 5.7.20 の解凍バージョンをインストールするときに遭遇する落とし穴 (推奨)
>>: Vue+Springbootでインターフェースシグネチャを実装するためのサンプルコード
<table id=" <%=var1%>">、var1...
序文この記事では、docker-compose の構成をいくつか紹介します。これらを参考にして、独自...
背景go-fastdfs は、http プロトコルをサポートする分散ファイルシステムです。一般的なプ...
1. 事例会社のトップ以外の従業員全員を年齢別にグループ化します。 t_emp で id が存在しな...
コードの説明1.1 http:www.baidu.test.com のデフォルトは 80 で、リバー...
目次Linux netstat コマンド1. TCP接続ステータスの詳細な説明2. コマンド形式3....
目次スムーズなアニメーションの基準方法1: Chromeデベロッパーツールを使用する方法 2: フレ...
elementUI が提供する el-select コンポーネントのスタイルを変更する方法この問題...
コード実装:コードをコピーコードは次のとおりです。 <!DOCTYPE html> &l...
証明書チェーンを生成するスクリプトを使用して、ルート証明書、中間証明書、および 3 つのクライアント...
目次1. DOM の違い2. 同じレイヤーの同じタイプの要素にキー属性を追加する3. キーはインデッ...
データ URI スキームを使用すると、HTML、CSS、Javascript などで使用できるインラ...
最近、セキュリティ製品をテストする必要があったため、mariadb の起動ユーザーを root に調...
視覚効果が非常に美しく、訪問者に強い印象を残すことがわかります。さらに、重要なポイントが強調され、訴...
概要MySQL には独自のイベント スケジューラもあり、これは Linux の crontab ジョ...