SlideShare a Scribd company logo
1 of 30
© 2019 QlikTech International AB. All rights reserved.
Google BigQueryの
ターゲットエンドポイント
としての利用
クリックテック・ジャパン株式会社
© 2019 QlikTech International AB. All rights reserved.
2
• Google BigQuery側での基本セットアップ
• Qlik Replicate側での基本セットアップ
• Qlik Replicateでのエンドポイント定義
• 制限事項など
アジェンダ
© 2019 QlikTech International AB. All rights reserved.
3
Google BigQuery
側での基本セットアップ
4
必要な権限
このセクションでは、レプリケートに必要な Google クラウド BigQuery サービス アカウントのアクセス許可について説明します。
• ターゲットにデータセットを作成するレプリケーションタスクが必要ない場合は、次のロールを設定します。
 Project >オーナーもしくは編集者
 BigQuery > BigQueryデータオーナー
• ターゲットにデータセットを作成するためにレプリケーションタスクが必要な場合は、次のロールを設定します。
 Project >オーナーもしくは編集者
 BigQuery > BigQueryデータ編集者
• サービス アカウント キーを作成すると、接続情報を含む JSON ファイルがコンピューターにダウンロードされます。このファイルの内
容を Google Cloud BigQuery エンドポイントのService account keyフィールドにコピーする必要があります。
5
新規プロジェクトの作成
• ホーム画面トップから[プロジェクトの選択]をクリックし、[新しいプロジェク
ト]を選択します。(既にプロジェクトを作成済みの場合は、利用するプロ
ジェクトを一覧から選択します。)
• プロジェクト名を入力し、[作成]をクリックします。
6
サービスアカウントの作成
• [APIとサービス] > [認証情報]を選択します。 • 画面トップの[認証情報を作成] > [サービスアカウント]を選択します。
7
サービスアカウントの作成
• [サービスアカウント名]を入力して[作成して続行]をクリックします。 • [ロールを選択]をクリックし、[現在使用中] > [オーナー] (もしくは
[Project] > [オーナー])を選択します。
8
サービスアカウントの作成
• [別のロールを追加]をクリックします。 • [BigQuery] > [BigQueryデータオーナー]もしくは[BigQuery
データ編集者]を選択し、[続行]をクリックします。
9
サービスアカウントの作成
• [完了]をクリックします。 • 作成したサービスアカウントをクリックします。
10
サービスアカウントの作成
• [キー]のタブを選択し、[鍵を追加] > [新しい鍵を作成]を選択し
ます。
• [JSON] を選択して、[作成]をクリックします。
11
サービスアカウントの作成
12
Qlik Replicate側での
基本セットアップ
13
Qlik Replicate for Windows
• Replicateサーバー マシンに以下のリンクからSimba ODBC driver 2.3.3.1005をダウンロードしてインストールします。
• https://storage.googleapis.com/simba-bq-release/odbc/SimbaODBCDriverforGoogleBigQuery64_2.3.3.1005.msi
14
Qlik Replicate for Windows
Replicateサーバー マシンにGoogle Cloud SDK 315.0.0をインストールします。
方法1:
• 以下のサイトの手順に従って、 Google Cloud SDK 315.0.0をインストールします。
 バージョニングされたアーカイブからのインストール | Cloud SDK のドキュメント | Google Cloud
• 以下のいずれかのリンクからソフトウェアをダウンロードしてください。
 https://storage.cloud.google.com/cloud-sdk-release/google-cloud-sdk-315.0.0-windows-x86_64.zip
 https://storage.cloud.google.com/cloud-sdk-release/google-cloud-sdk-315.0.0-windows-x86_64-bundled-
python.zip (※ SDKにはPythonが必要です。環境にPythonが導入されていない場合にはこちらを利用ください)
• もしくは、以下のサイトで旧バージョンのSDKがアーカイブされており、ここから315.0.0のGoogle Cloud SDKをダウンロードすることも可能です。
 https://console.cloud.google.com/storage/browser/cloud-sdk-release
方法2:
• Google から最新バージョンの Google Cloud SDK をダウンロードしてインストールします。
 https://dl.google.com/dl/cloudsdk/channels/rapid/GoogleCloudSDKInstaller.exe
• 次のコマンドを発行して、バージョン 315.0.0 にダウングレードします。
gcloud components update --version 315.0.0
15
Qlik Replicate for Linux
レプリケートタスクでターゲット エンドポイントとして Google Cloud BigQueryを使用できるようにするには、次の手順を実行する必要があります。
• Simba ODBC driver version 2.3.3.1005をReplicateサーバーコンピュータにダウンロードします。
 https://storage.googleapis.com/simba-bq-release/odbc/SimbaODBCDriverforGoogleBigQuery_2.3.3.1005-Linux.tar.gz
• SimbaODBCDriverforGoogleBigQuery64_2.3.3.1005.tar.gzを以下のフォルダに展開します。
 /opt/SimbaODBCDriverforGoogleBigQuery_2.3.3.1005-Linux
• 展開したファイルに含まれる、以下のファイルをさらに展開します。
 /opt/SimbaODBCDriverforGoogleBigQuery_2.3.3.1005/LinuxSimbaODBCDriverforGoogleBigQuery64_2.3.3.1005.tar.gz
• 以下の2つのファイルを/opt/SimbaODBCDriverforGoogleBigQuery_2.3.3.1005-Linux/SimbaODBCDriverforGoogleBigQuery64_2
3.3.1005/libに移動します。
 /opt/SimbaODBCDriverforGoogleBigQuery_2.3.3.1005-Linux/GoogleBigQueryODBC.did
 /opt/SimbaODBCDriverforGoogleBigQuery_2.3.3.1005-Linux/setup/simba.googlebigqueryodbc.ini
16
Qlik Replicate for Linux
• 次のように、googlebigqueryodbc.iniファイルを編集します。
 ErrorMessagesPath をODBC メッセージを含む XML ファイルのパスに変更します。既定の場所は次のとおりです。
ErrorMessagesPath=/opt/SimbaODBCDriverforGoogleBigQuery_2.3.3.1005-
Linux/SimbaODBCDriverforGoogleBigQuery64_2.3.3.1005/ErrorMessages
 DriverManagerEncodingをUTF-16に変更します。
17
Qlik Replicate for Linux
• Qlik Replicateのbinディレクトリにあるsite_arep_login.shファイルに次のパスを追加します。
export LD_LIBRARY_PATH=$LD_LIBRARY_PATH:/opt/SimbaODBCDriverforGoogleBigQuery_2.3.3.1005-
Linux/SimbaODBCDriverforGoogleBigQuery64_2.3.3.1005/lib
• /etc/odbcinst.iniファイルを編集し、ドライバパス (ドライバがインストールされているパス) を追加します。
[ODBC Drivers]
Simba= Installed
Simba ODBC Driver for Google BigQuery = Installed
[Simba ODBC Driver for Google BigQuery]
Description=Simba ODBC Driver for Google BigQuery(64-bit)
Driver=/opt/SimbaODBCDriverforGoogleBigQuery_2.3.3.1005-
Linux/SimbaODBCDriverforGoogleBigQuery64_2.3.3.1005/lib/libgooglebigqueryodbc_sb64.so
18
Qlik Replicate for Linux
• Replicateサーバー マシンで Google Cloud SDK 315.0.0 for Linuxをダウンロードしてインストールします。
 https://dl.google.com/dl/cloudsdk/channels/rapid/downloads/google-cloud-sdk-315.0.0-linux-x86_64.tar.gz
• SDKを初期化せずに、Linux に gcloud をインストールします。
 インストール手順については、「Quickstart: Getting started with Cloud SDK」を参照してください。
 Replicateサービスユーザー(既定: attunity)に対してSDKのbinディレクトリをPATHとして登録する必要があります。Install.sh実行時にパス
登録対象のファイルとして、/etc/profileや/home/attunity/.bashrcなどを指定してパスの登録を行ってください。
• Replicateサービスを再起動します。
 /opt/attunity/replicate/bin/areplicate restart
19
Qlik Replicateの動作について
• ReplicateとBigQueryでは、それぞれ以下に対応します。
• bq コマンドを実行してBigQueryへのデータロードが実行されます。
• このユーティリティはクラウド ストレージを使用せず、データは直接BigQueryのテーブルにロードされます。
• GBQ ターゲットで指定された資格情報で bq を実行すると、そのプロジェクトの gcloud を使用して顧客が設定した既存の資格情報
が上書きされます。
• ファイルは、BigQuery に圧縮されず、暗号化されていない状態でロードされます。
Qlik Replicate BigQuery
Database Project
Schema Dataset
Table Table
20
Qlik Replicateでの
エンドポイント定義
21
一般的な接続プロパティの設定
1. Tasksビューで、[Manage Endpoint
Connections ] をクリックして、[New Endpoint
Connection] ボタンをクリックします。
2. [Name]フィールドに、エンドポイントの名前を入力しま
す。使用するエンドポイントを識別するのに役立つ任意の
名前を指定できます。
3. 必要に応じて、[Description] フィールドに、エンドポ
イントを識別するための説明を入力します。
4. エンドポイントRoleとして[Target ] を選択します。
5. エンドポイントの [Type]として[Google Cloud
BigQuery]を選択します。
6. [Service account key] フィールドに、BigQuery
サービス アカウント キーの作成時にダウンロードされた
JSON ファイルの内容 (中かっこを含む) を貼り付けます。
22
高度な接続プロパティの設定
[Advanced]タブでは、次のパラメータを設定できます。
• Max file size (KB): ファイルが Google Cloud BigQuery
ターゲット データベースに読み込まれる前に、CSV ファイルの最大サ
イズ (KB 単位) を選択または入力します。
• Location:レプリケートによって作成されたデータセットをアップロード
する場所 。
• Default dataset prefix:ターゲットテーブルを作成および更新
するBigQueryデータセットのプレフィックスを指定します。
※ これは、[Apply Changes] レプリケーション オプションが選
択されている場合に必要です。
• Create tables as clustered by primary key: このオプ
ションを選択すると、ターゲットテーブルはクラスタとして作成されます
(クラスタ化をサポートする最初の 4 つのプライマリキー列に従います)。
一般に、クラスター化されたテーブルは、通常、クエリのパフォーマンス
を向上させるだけでなく、請求コストを削減します。
※ クラスター化されたデータ・タイプの主キーを持つ表のみを作成
できます:日付、BOOL、GEOGRAPHY、INT64、数値、ス
トリング、および TIMESTAMP。
※ このオプションを選択した後で、ターゲットでテーブルをクラスター
として作成しないようにする場合は、このオプションをオフにして
タスクを再ロードします。
23
クォータへの対応
• BigQueryには操作量に以下の制限(クォータ)があります
 1 日あたりのテーブル オペレーション最大数 - 1,500個のオペレーション
 詳細は「割り当てと上限 | BigQuery | Google Cloud 」のページをご参照ください。また、Replicateのクォータへの対応の
最新情報はLimitations and considerations ‒ Qlik Replicateをご確認ください。
• これらの制限を回避するには、次の手順を実行します。
 前項のエンドポイント設定の [Advanced] タブで、最大ファイル サイズ (MB) = 1000 以上を使用します。
24
クォータへの対応
• [Task Settings]を開き、[Change Processing]>[Change Processing Tuning]上で:
 [Batch optimized apply]が選択されていることを確認
 [Apply batched changes in intervals]の[Longer than (seconds)]の値を60以上に設定
25
クォータへの対応
• [Task Settings]を開き、[Change Processing]>[Change Processing Tuning]上で[Apply changes using SQL
MERGE] をONにすることで、処理を行うSQLステートメントの数を減らすことができます。
26
クォータへの対応
• [Apply changes using SQL MERGE]の詳細について
 [Task Settings]を開き、[Change Processing]>[Change Processing Tuning]上で設定ができます。
 このオプションを選択しない場合、Batch optimized apply操作は、レプリケート NET テーブル内の異なる変更の種類ごとに個別の一括
INSERT、UPDATE、および DELETE ステートメントを実行します。
 次に、1つの MERGE ステートメントを実行して、一連の NET テーブル変更をターゲット テーブルに適用します。
 この方法は非常に効率的ですが、このオプションをサポートするエンドポイントを操作する場合は、[Apply changes using SQL MERGE]
オプションを有効にした方がより効率的です。
 この場合、テーブルごとに実行される SQL ステートメントの数が3から1に減ります。大規模で変更できないファイルベースのクラウド データ
ベース (Google Cloud BigQueryなど) での UPDATE 操作の大半は、影響を受けるファイルの書き換えを伴います。このような操作
では、テーブルごとの SQL ステートメントを3から1に減額することは非常に重要です。
 ターゲット データベースは、1 回だけ NET テーブルをスキャンするだけで、I/O が大幅に削減されます。
 このオプションが有効になっている場合、エラー処理に以下の制限がありますのでご注意ください:
• 致命的でないデータ エラーまたは回復できないDataエラーは、Tableエラーとして処理されます。
• Global error handling policyは使用できません
• Apply Conflicts error handling policyは、事前設定され、編集不可になります。
• Data error handling policyオプションの一部は使用できません。
 このオプションは、Salesforce および Oracle のソースエンドポイントではサポートされません。
27
制限事項など
28
制限事項
レプリケート タスクのターゲットとして Google Cloud BigQueryを使用する場合は、次の制限が適用されます。
• 次のDDLはサポートされていません。
 Drop column
 Rename column
 Change column data type
 Rename table
• ファイルは、圧縮されず、また暗号化されない形でBigQueryにロードされます。
• Transactional Apply Change Processing Modeはサポートされていません。
• Google Cloud BigQuery では、1 日あたりテーブルあたり最大 1500 Load Operationのクォータが適用されます。この制限を回避するには、エンドポイ
ント設定のAdvancedタブで[Max file size(MB)]の値を 1000 (既定) より大きくします。
• [Allow unlimited LOB size] のLOB処理オプションはサポートされていません。
• 主キーを使用せずにソース テーブルから変更をキャプチャすることはできません。このようなテーブルから変更をキャプチャする必要がある場合は、変換を利用し
て主キーを追加できます。
• Apply ConflictsとData Errorsの [Log record to the exceptions table] のエラー処理オプションはサポートされていません。
• 次のタスク設定の構成では、UPDATEが発生したときに、DELETE 操作の後に INSERT 操作が実行されます。
 Change Processing ModeがBatch optimized applyに設定されている
 [Apply changes using SQL MERG]オプションが選択されていない
 UPDATE の Apply Conflicts error handling が、No record found for applying an UPDATE: INSERT the missing
target record
• Google Cloud BigQuery ではロールバックがサポートされないため、レプリケートが更新された行を挿入できない場合、データはターゲットから削除されます。
29
データ型
Qlik Replicateデータ型 Amazon Redshift データ型
BOOLEAN BOOL
BYTES VARCHAR (Length)
DATE DATE
TIME VARCHAR(20)
DATETIME
スケールが => 0 と =< 6 の場合は、次のようになります:
TIMESTAMP (s)
スケールが => 7 および =< 12 の場合は、次のようになります:
VARCHAR (37)
INT1 INT2
INT2 INT2
INT4 INT4
INT8 INT8
NUMERIC
スケールが => 0 および =< 37 の場合は、次のようになります:
NUMERIC (p,s)
スケールが => 38 で =< 127 の場合は、次のようになります:
VARCHAR (Length)
REAL4 FLOAT4
REAL8 FLOAT8
STRING
長さが => 1 および =< 65535 の場合は、次のようになります:
VARCHAR (Length in Bytes)
長さが => 65535 および =< 2147483647 の場合は、次のようになります:
VARCHAR (65535)
UINT1 INT2
UINT2 INT4
UINT4 INT8
UINT8 NUMERIC (20,0)
WSTRING
長さが => 1 および =< 65535 の場合は、次のようになります:
NVARCHAR (Length in Bytes)
長さが => 65536 および =< 2147483647 の場合は、次のようになります:
NVARCHAR (65535)
BLOB
VARCHAR (Max LOB Size *2)
[Metadata] タブの最大 LOB サイズは 31 KB を超えることはできません。
NCLOB
NVARCHAR (Max LOB Size)
[Metadata] タブの最大 LOB サイズは 31 KB を超えることはできません。
CLOB
VARCHAR (Max LOB Size)
[Metadata] タブの最大 LOB サイズは 31 KB を超えることはできません。
Qlik レプリケートのAmazon Redshiftデータベースは、ほとんどの Amazon Redshiftデータ型をサポートしています。次の表は、Qlik Replicateを使用する場合にサポートされ
る Amazon Redshift ターゲットデータ型と、Qlik Replicateデータ型からのデフォルトマッピングを示しています。
www.qlik.com/sap

More Related Content

What's hot

Qlik Sense SaaS向けコマンドラインツールのご紹介 - Windows/Linux/macOS対応"qlik"コマンド
Qlik Sense SaaS向けコマンドラインツールのご紹介 - Windows/Linux/macOS対応"qlik"コマンドQlik Sense SaaS向けコマンドラインツールのご紹介 - Windows/Linux/macOS対応"qlik"コマンド
Qlik Sense SaaS向けコマンドラインツールのご紹介 - Windows/Linux/macOS対応"qlik"コマンドQlikPresalesJapan
 
Qlik composeを利用したDWH構築の流れ
Qlik composeを利用したDWH構築の流れQlik composeを利用したDWH構築の流れ
Qlik composeを利用したDWH構築の流れQlikPresalesJapan
 
Qlik Replicate のインストール
Qlik Replicate のインストールQlik Replicate のインストール
Qlik Replicate のインストールQlikPresalesJapan
 
Qlik Tips 日付データの取り扱い
Qlik Tips 日付データの取り扱いQlik Tips 日付データの取り扱い
Qlik Tips 日付データの取り扱いQlikPresalesJapan
 
リアルタイムにデータを配信・変換・統合:Qlik Cloudデータ統合のご紹介
リアルタイムにデータを配信・変換・統合:Qlik Cloudデータ統合のご紹介リアルタイムにデータを配信・変換・統合:Qlik Cloudデータ統合のご紹介
リアルタイムにデータを配信・変換・統合:Qlik Cloudデータ統合のご紹介QlikPresalesJapan
 
今だから知りたい BigQuery 再入門 | Google Cloud INSIDE Games & Apps: Online
今だから知りたい BigQuery 再入門 | Google Cloud INSIDE Games & Apps: Online今だから知りたい BigQuery 再入門 | Google Cloud INSIDE Games & Apps: Online
今だから知りたい BigQuery 再入門 | Google Cloud INSIDE Games & Apps: OnlineGoogle Cloud Platform - Japan
 
YugabyteDBを使ってみよう(NewSQL/分散SQLデータベースよろず勉強会 #1 発表資料)
YugabyteDBを使ってみよう(NewSQL/分散SQLデータベースよろず勉強会 #1 発表資料)YugabyteDBを使ってみよう(NewSQL/分散SQLデータベースよろず勉強会 #1 発表資料)
YugabyteDBを使ってみよう(NewSQL/分散SQLデータベースよろず勉強会 #1 発表資料)NTT DATA Technology & Innovation
 
[Cloud OnAir] BigQuery の仕組みからベストプラクティスまでのご紹介 2018年9月6日 放送
[Cloud OnAir] BigQuery の仕組みからベストプラクティスまでのご紹介 2018年9月6日 放送[Cloud OnAir] BigQuery の仕組みからベストプラクティスまでのご紹介 2018年9月6日 放送
[Cloud OnAir] BigQuery の仕組みからベストプラクティスまでのご紹介 2018年9月6日 放送Google Cloud Platform - Japan
 
[Cloud OnAir] BigQuery へデータを読み込む 2019年3月14日 放送
[Cloud OnAir] BigQuery へデータを読み込む 2019年3月14日 放送[Cloud OnAir] BigQuery へデータを読み込む 2019年3月14日 放送
[Cloud OnAir] BigQuery へデータを読み込む 2019年3月14日 放送Google Cloud Platform - Japan
 
20221018 QlikTips 変数でできること
20221018 QlikTips 変数でできること20221018 QlikTips 変数でできること
20221018 QlikTips 変数でできることQlikPresalesJapan
 
20220621_Qlik Tips ErrorHandling
20220621_Qlik Tips ErrorHandling20220621_Qlik Tips ErrorHandling
20220621_Qlik Tips ErrorHandlingQlikPresalesJapan
 
Qlik Tips 20230725 Section Access Update
Qlik Tips 20230725 Section Access UpdateQlik Tips 20230725 Section Access Update
Qlik Tips 20230725 Section Access UpdateQlikPresalesJapan
 
Azure API Management 俺的マニュアル
Azure API Management 俺的マニュアルAzure API Management 俺的マニュアル
Azure API Management 俺的マニュアル貴志 上坂
 
PostgreSQLのロール管理とその注意点(Open Source Conference 2022 Online/Osaka 発表資料)
PostgreSQLのロール管理とその注意点(Open Source Conference 2022 Online/Osaka 発表資料)PostgreSQLのロール管理とその注意点(Open Source Conference 2022 Online/Osaka 発表資料)
PostgreSQLのロール管理とその注意点(Open Source Conference 2022 Online/Osaka 発表資料)NTT DATA Technology & Innovation
 
TECHTALK 20210413 Qlik Sense の Analyzerで積極的なデータ活用!ログインからアラート設定まで
TECHTALK 20210413 Qlik Sense の Analyzerで積極的なデータ活用!ログインからアラート設定までTECHTALK 20210413 Qlik Sense の Analyzerで積極的なデータ活用!ログインからアラート設定まで
TECHTALK 20210413 Qlik Sense の Analyzerで積極的なデータ活用!ログインからアラート設定までQlikPresalesJapan
 
DockerとPodmanの比較
DockerとPodmanの比較DockerとPodmanの比較
DockerとPodmanの比較Akihiro Suda
 
PostgreSQLのバグとの付き合い方 ~バグの調査からコミュニティへの報告、修正パッチ投稿まで~(PostgreSQL Conference Japa...
PostgreSQLのバグとの付き合い方 ~バグの調査からコミュニティへの報告、修正パッチ投稿まで~(PostgreSQL Conference Japa...PostgreSQLのバグとの付き合い方 ~バグの調査からコミュニティへの報告、修正パッチ投稿まで~(PostgreSQL Conference Japa...
PostgreSQLのバグとの付き合い方 ~バグの調査からコミュニティへの報告、修正パッチ投稿まで~(PostgreSQL Conference Japa...NTT DATA Technology & Innovation
 
TECHTALK 20201020 Qlik DataTransferによるクラウド版Qlik Senseへのデータ転送・更新の自動化
TECHTALK 20201020 Qlik DataTransferによるクラウド版Qlik Senseへのデータ転送・更新の自動化TECHTALK 20201020 Qlik DataTransferによるクラウド版Qlik Senseへのデータ転送・更新の自動化
TECHTALK 20201020 Qlik DataTransferによるクラウド版Qlik Senseへのデータ転送・更新の自動化QlikPresalesJapan
 
Dapr × Kubernetes ではじめるポータブルなマイクロサービス(CloudNative Days Tokyo 2020講演資料)
Dapr × Kubernetes ではじめるポータブルなマイクロサービス(CloudNative Days Tokyo 2020講演資料)Dapr × Kubernetes ではじめるポータブルなマイクロサービス(CloudNative Days Tokyo 2020講演資料)
Dapr × Kubernetes ではじめるポータブルなマイクロサービス(CloudNative Days Tokyo 2020講演資料)NTT DATA Technology & Innovation
 

What's hot (20)

Qlik Sense SaaS向けコマンドラインツールのご紹介 - Windows/Linux/macOS対応"qlik"コマンド
Qlik Sense SaaS向けコマンドラインツールのご紹介 - Windows/Linux/macOS対応"qlik"コマンドQlik Sense SaaS向けコマンドラインツールのご紹介 - Windows/Linux/macOS対応"qlik"コマンド
Qlik Sense SaaS向けコマンドラインツールのご紹介 - Windows/Linux/macOS対応"qlik"コマンド
 
Qlik composeを利用したDWH構築の流れ
Qlik composeを利用したDWH構築の流れQlik composeを利用したDWH構築の流れ
Qlik composeを利用したDWH構築の流れ
 
Qlik Replicate のインストール
Qlik Replicate のインストールQlik Replicate のインストール
Qlik Replicate のインストール
 
Qlik Tips 日付データの取り扱い
Qlik Tips 日付データの取り扱いQlik Tips 日付データの取り扱い
Qlik Tips 日付データの取り扱い
 
リアルタイムにデータを配信・変換・統合:Qlik Cloudデータ統合のご紹介
リアルタイムにデータを配信・変換・統合:Qlik Cloudデータ統合のご紹介リアルタイムにデータを配信・変換・統合:Qlik Cloudデータ統合のご紹介
リアルタイムにデータを配信・変換・統合:Qlik Cloudデータ統合のご紹介
 
今だから知りたい BigQuery 再入門 | Google Cloud INSIDE Games & Apps: Online
今だから知りたい BigQuery 再入門 | Google Cloud INSIDE Games & Apps: Online今だから知りたい BigQuery 再入門 | Google Cloud INSIDE Games & Apps: Online
今だから知りたい BigQuery 再入門 | Google Cloud INSIDE Games & Apps: Online
 
YugabyteDBを使ってみよう(NewSQL/分散SQLデータベースよろず勉強会 #1 発表資料)
YugabyteDBを使ってみよう(NewSQL/分散SQLデータベースよろず勉強会 #1 発表資料)YugabyteDBを使ってみよう(NewSQL/分散SQLデータベースよろず勉強会 #1 発表資料)
YugabyteDBを使ってみよう(NewSQL/分散SQLデータベースよろず勉強会 #1 発表資料)
 
[Cloud OnAir] BigQuery の仕組みからベストプラクティスまでのご紹介 2018年9月6日 放送
[Cloud OnAir] BigQuery の仕組みからベストプラクティスまでのご紹介 2018年9月6日 放送[Cloud OnAir] BigQuery の仕組みからベストプラクティスまでのご紹介 2018年9月6日 放送
[Cloud OnAir] BigQuery の仕組みからベストプラクティスまでのご紹介 2018年9月6日 放送
 
[Cloud OnAir] BigQuery へデータを読み込む 2019年3月14日 放送
[Cloud OnAir] BigQuery へデータを読み込む 2019年3月14日 放送[Cloud OnAir] BigQuery へデータを読み込む 2019年3月14日 放送
[Cloud OnAir] BigQuery へデータを読み込む 2019年3月14日 放送
 
20221018 QlikTips 変数でできること
20221018 QlikTips 変数でできること20221018 QlikTips 変数でできること
20221018 QlikTips 変数でできること
 
20220621_Qlik Tips ErrorHandling
20220621_Qlik Tips ErrorHandling20220621_Qlik Tips ErrorHandling
20220621_Qlik Tips ErrorHandling
 
Qlik Tips 20230725 Section Access Update
Qlik Tips 20230725 Section Access UpdateQlik Tips 20230725 Section Access Update
Qlik Tips 20230725 Section Access Update
 
Azure API Management 俺的マニュアル
Azure API Management 俺的マニュアルAzure API Management 俺的マニュアル
Azure API Management 俺的マニュアル
 
PostgreSQLのロール管理とその注意点(Open Source Conference 2022 Online/Osaka 発表資料)
PostgreSQLのロール管理とその注意点(Open Source Conference 2022 Online/Osaka 発表資料)PostgreSQLのロール管理とその注意点(Open Source Conference 2022 Online/Osaka 発表資料)
PostgreSQLのロール管理とその注意点(Open Source Conference 2022 Online/Osaka 発表資料)
 
TECHTALK 20210413 Qlik Sense の Analyzerで積極的なデータ活用!ログインからアラート設定まで
TECHTALK 20210413 Qlik Sense の Analyzerで積極的なデータ活用!ログインからアラート設定までTECHTALK 20210413 Qlik Sense の Analyzerで積極的なデータ活用!ログインからアラート設定まで
TECHTALK 20210413 Qlik Sense の Analyzerで積極的なデータ活用!ログインからアラート設定まで
 
DockerとPodmanの比較
DockerとPodmanの比較DockerとPodmanの比較
DockerとPodmanの比較
 
PostgreSQLのバグとの付き合い方 ~バグの調査からコミュニティへの報告、修正パッチ投稿まで~(PostgreSQL Conference Japa...
PostgreSQLのバグとの付き合い方 ~バグの調査からコミュニティへの報告、修正パッチ投稿まで~(PostgreSQL Conference Japa...PostgreSQLのバグとの付き合い方 ~バグの調査からコミュニティへの報告、修正パッチ投稿まで~(PostgreSQL Conference Japa...
PostgreSQLのバグとの付き合い方 ~バグの調査からコミュニティへの報告、修正パッチ投稿まで~(PostgreSQL Conference Japa...
 
Oracle Data Guard による高可用性
Oracle Data Guard による高可用性Oracle Data Guard による高可用性
Oracle Data Guard による高可用性
 
TECHTALK 20201020 Qlik DataTransferによるクラウド版Qlik Senseへのデータ転送・更新の自動化
TECHTALK 20201020 Qlik DataTransferによるクラウド版Qlik Senseへのデータ転送・更新の自動化TECHTALK 20201020 Qlik DataTransferによるクラウド版Qlik Senseへのデータ転送・更新の自動化
TECHTALK 20201020 Qlik DataTransferによるクラウド版Qlik Senseへのデータ転送・更新の自動化
 
Dapr × Kubernetes ではじめるポータブルなマイクロサービス(CloudNative Days Tokyo 2020講演資料)
Dapr × Kubernetes ではじめるポータブルなマイクロサービス(CloudNative Days Tokyo 2020講演資料)Dapr × Kubernetes ではじめるポータブルなマイクロサービス(CloudNative Days Tokyo 2020講演資料)
Dapr × Kubernetes ではじめるポータブルなマイクロサービス(CloudNative Days Tokyo 2020講演資料)
 

Similar to Google BigQueryのターゲットエンドポイントとしての利用

Snowflake on Googleのターゲットエンドポイントとしての利用
Snowflake on Googleのターゲットエンドポイントとしての利用Snowflake on Googleのターゲットエンドポイントとしての利用
Snowflake on Googleのターゲットエンドポイントとしての利用QlikPresalesJapan
 
Google Cloud ベストプラクティス:Google BigQuery 編 - 03 : パフォーマンスとコストの最適化
Google Cloud ベストプラクティス:Google BigQuery 編 - 03 : パフォーマンスとコストの最適化Google Cloud ベストプラクティス:Google BigQuery 編 - 03 : パフォーマンスとコストの最適化
Google Cloud ベストプラクティス:Google BigQuery 編 - 03 : パフォーマンスとコストの最適化Google Cloud Platform - Japan
 
Google Cloud ベストプラクティス:Google BigQuery 編 - 02 : データ処理 / クエリ / データ抽出
Google Cloud ベストプラクティス:Google BigQuery 編 - 02 : データ処理 / クエリ / データ抽出Google Cloud ベストプラクティス:Google BigQuery 編 - 02 : データ処理 / クエリ / データ抽出
Google Cloud ベストプラクティス:Google BigQuery 編 - 02 : データ処理 / クエリ / データ抽出Google Cloud Platform - Japan
 
Managed Instance チートシート
Managed Instance チートシートManaged Instance チートシート
Managed Instance チートシートMasayuki Ozawa
 
クラウドバイデフォルトは新しい日常で加速するハイブリッドクラウド、マルチクラウドデータ保護の最前線とコストの最適化
クラウドバイデフォルトは新しい日常で加速するハイブリッドクラウド、マルチクラウドデータ保護の最前線とコストの最適化クラウドバイデフォルトは新しい日常で加速するハイブリッドクラウド、マルチクラウドデータ保護の最前線とコストの最適化
クラウドバイデフォルトは新しい日常で加速するハイブリッドクラウド、マルチクラウドデータ保護の最前線とコストの最適化vxsejapan
 
PostgreSQL 15の新機能を徹底解説
PostgreSQL 15の新機能を徹底解説PostgreSQL 15の新機能を徹底解説
PostgreSQL 15の新機能を徹底解説Masahiko Sawada
 
Oracle GoldenGate 19c を使用した 簡単データベース移行ガイド_v1.0
Oracle GoldenGate 19c を使用した 簡単データベース移行ガイド_v1.0Oracle GoldenGate 19c を使用した 簡単データベース移行ガイド_v1.0
Oracle GoldenGate 19c を使用した 簡単データベース移行ガイド_v1.0オラクルエンジニア通信
 
[External] 2021.12.15 コンテナ移行の前に知っておきたいこと @ gcpug 湘南
[External] 2021.12.15 コンテナ移行の前に知っておきたいこと  @ gcpug 湘南[External] 2021.12.15 コンテナ移行の前に知っておきたいこと  @ gcpug 湘南
[External] 2021.12.15 コンテナ移行の前に知っておきたいこと @ gcpug 湘南Google Cloud Platform - Japan
 
[Cloud OnAir] Google Cloud における RDBMS の運用パターン 2020年11月19日 放送
[Cloud OnAir] Google Cloud における RDBMS の運用パターン 2020年11月19日 放送[Cloud OnAir] Google Cloud における RDBMS の運用パターン 2020年11月19日 放送
[Cloud OnAir] Google Cloud における RDBMS の運用パターン 2020年11月19日 放送Google Cloud Platform - Japan
 
Microsoft Azure SQLマネージド インスタンスのソースとしての利用
Microsoft Azure SQLマネージド インスタンスのソースとしての利用Microsoft Azure SQLマネージド インスタンスのソースとしての利用
Microsoft Azure SQLマネージド インスタンスのソースとしての利用QlikPresalesJapan
 
Autonomous を支える技術、Oracle Database 18c デモンストレーション
Autonomous を支える技術、Oracle Database 18c デモンストレーションAutonomous を支える技術、Oracle Database 18c デモンストレーション
Autonomous を支える技術、Oracle Database 18c デモンストレーションオラクルエンジニア通信
 
Google Cloud Storageの ターゲットエンドポイント としての利用
Google Cloud Storageのターゲットエンドポイントとしての利用Google Cloud Storageのターゲットエンドポイントとしての利用
Google Cloud Storageの ターゲットエンドポイント としての利用QlikPresalesJapan
 
Oracle Cloud MySQL Service
Oracle Cloud MySQL ServiceOracle Cloud MySQL Service
Oracle Cloud MySQL ServiceShinya Sugiyama
 
[Cloud OnAir] Dive to Google Kubernetes Engine 2018年8月2日 放送
[Cloud OnAir] Dive to Google Kubernetes Engine 2018年8月2日 放送[Cloud OnAir] Dive to Google Kubernetes Engine 2018年8月2日 放送
[Cloud OnAir] Dive to Google Kubernetes Engine 2018年8月2日 放送Google Cloud Platform - Japan
 
Qlik composeのインストール
Qlik composeのインストールQlik composeのインストール
Qlik composeのインストールQlikPresalesJapan
 
Salesforceのソースエンドポイントとしての利用
Salesforceのソースエンドポイントとしての利用Salesforceのソースエンドポイントとしての利用
Salesforceのソースエンドポイントとしての利用QlikPresalesJapan
 
Qlik Enterprise Managerの導入と利用方法
Qlik Enterprise Managerの導入と利用方法Qlik Enterprise Managerの導入と利用方法
Qlik Enterprise Managerの導入と利用方法QlikPresalesJapan
 
Azure Synapse Analyticsのターゲットエンドポイントとしての利用
Azure Synapse Analyticsのターゲットエンドポイントとしての利用Azure Synapse Analyticsのターゲットエンドポイントとしての利用
Azure Synapse Analyticsのターゲットエンドポイントとしての利用QlikPresalesJapan
 

Similar to Google BigQueryのターゲットエンドポイントとしての利用 (20)

Snowflake on Googleのターゲットエンドポイントとしての利用
Snowflake on Googleのターゲットエンドポイントとしての利用Snowflake on Googleのターゲットエンドポイントとしての利用
Snowflake on Googleのターゲットエンドポイントとしての利用
 
Google Cloud ベストプラクティス:Google BigQuery 編 - 03 : パフォーマンスとコストの最適化
Google Cloud ベストプラクティス:Google BigQuery 編 - 03 : パフォーマンスとコストの最適化Google Cloud ベストプラクティス:Google BigQuery 編 - 03 : パフォーマンスとコストの最適化
Google Cloud ベストプラクティス:Google BigQuery 編 - 03 : パフォーマンスとコストの最適化
 
Google Cloud ベストプラクティス:Google BigQuery 編 - 02 : データ処理 / クエリ / データ抽出
Google Cloud ベストプラクティス:Google BigQuery 編 - 02 : データ処理 / クエリ / データ抽出Google Cloud ベストプラクティス:Google BigQuery 編 - 02 : データ処理 / クエリ / データ抽出
Google Cloud ベストプラクティス:Google BigQuery 編 - 02 : データ処理 / クエリ / データ抽出
 
G gencorp
G gencorpG gencorp
G gencorp
 
Managed Instance チートシート
Managed Instance チートシートManaged Instance チートシート
Managed Instance チートシート
 
クラウドバイデフォルトは新しい日常で加速するハイブリッドクラウド、マルチクラウドデータ保護の最前線とコストの最適化
クラウドバイデフォルトは新しい日常で加速するハイブリッドクラウド、マルチクラウドデータ保護の最前線とコストの最適化クラウドバイデフォルトは新しい日常で加速するハイブリッドクラウド、マルチクラウドデータ保護の最前線とコストの最適化
クラウドバイデフォルトは新しい日常で加速するハイブリッドクラウド、マルチクラウドデータ保護の最前線とコストの最適化
 
PostgreSQL 15の新機能を徹底解説
PostgreSQL 15の新機能を徹底解説PostgreSQL 15の新機能を徹底解説
PostgreSQL 15の新機能を徹底解説
 
Oracle GoldenGate 19c を使用した 簡単データベース移行ガイド_v1.0
Oracle GoldenGate 19c を使用した 簡単データベース移行ガイド_v1.0Oracle GoldenGate 19c を使用した 簡単データベース移行ガイド_v1.0
Oracle GoldenGate 19c を使用した 簡単データベース移行ガイド_v1.0
 
[External] 2021.12.15 コンテナ移行の前に知っておきたいこと @ gcpug 湘南
[External] 2021.12.15 コンテナ移行の前に知っておきたいこと  @ gcpug 湘南[External] 2021.12.15 コンテナ移行の前に知っておきたいこと  @ gcpug 湘南
[External] 2021.12.15 コンテナ移行の前に知っておきたいこと @ gcpug 湘南
 
[Cloud OnAir] Google Cloud における RDBMS の運用パターン 2020年11月19日 放送
[Cloud OnAir] Google Cloud における RDBMS の運用パターン 2020年11月19日 放送[Cloud OnAir] Google Cloud における RDBMS の運用パターン 2020年11月19日 放送
[Cloud OnAir] Google Cloud における RDBMS の運用パターン 2020年11月19日 放送
 
Microsoft Azure SQLマネージド インスタンスのソースとしての利用
Microsoft Azure SQLマネージド インスタンスのソースとしての利用Microsoft Azure SQLマネージド インスタンスのソースとしての利用
Microsoft Azure SQLマネージド インスタンスのソースとしての利用
 
Autonomous を支える技術、Oracle Database 18c デモンストレーション
Autonomous を支える技術、Oracle Database 18c デモンストレーションAutonomous を支える技術、Oracle Database 18c デモンストレーション
Autonomous を支える技術、Oracle Database 18c デモンストレーション
 
Google Cloud Storageの ターゲットエンドポイント としての利用
Google Cloud Storageのターゲットエンドポイントとしての利用Google Cloud Storageのターゲットエンドポイントとしての利用
Google Cloud Storageの ターゲットエンドポイント としての利用
 
Oracle Cloud MySQL Service
Oracle Cloud MySQL ServiceOracle Cloud MySQL Service
Oracle Cloud MySQL Service
 
[Cloud OnAir] Dive to Google Kubernetes Engine 2018年8月2日 放送
[Cloud OnAir] Dive to Google Kubernetes Engine 2018年8月2日 放送[Cloud OnAir] Dive to Google Kubernetes Engine 2018年8月2日 放送
[Cloud OnAir] Dive to Google Kubernetes Engine 2018年8月2日 放送
 
Qlik composeのインストール
Qlik composeのインストールQlik composeのインストール
Qlik composeのインストール
 
Salesforceのソースエンドポイントとしての利用
Salesforceのソースエンドポイントとしての利用Salesforceのソースエンドポイントとしての利用
Salesforceのソースエンドポイントとしての利用
 
Oracle GoldenGate Cloud Service(GGCS)概要
Oracle GoldenGate Cloud Service(GGCS)概要Oracle GoldenGate Cloud Service(GGCS)概要
Oracle GoldenGate Cloud Service(GGCS)概要
 
Qlik Enterprise Managerの導入と利用方法
Qlik Enterprise Managerの導入と利用方法Qlik Enterprise Managerの導入と利用方法
Qlik Enterprise Managerの導入と利用方法
 
Azure Synapse Analyticsのターゲットエンドポイントとしての利用
Azure Synapse Analyticsのターゲットエンドポイントとしての利用Azure Synapse Analyticsのターゲットエンドポイントとしての利用
Azure Synapse Analyticsのターゲットエンドポイントとしての利用
 

More from QlikPresalesJapan

Talend Studioのビッグデータ対応機能のご紹介 - Hadoop, HDFS, Hive, HBase, Spark, NoSQL
Talend Studioのビッグデータ対応機能のご紹介 - Hadoop, HDFS, Hive, HBase, Spark, NoSQLTalend Studioのビッグデータ対応機能のご紹介 - Hadoop, HDFS, Hive, HBase, Spark, NoSQL
Talend Studioのビッグデータ対応機能のご紹介 - Hadoop, HDFS, Hive, HBase, Spark, NoSQLQlikPresalesJapan
 
2024/04/25 Qlik医療データ活用勉強会_第36回_202404.pptx
2024/04/25 Qlik医療データ活用勉強会_第36回_202404.pptx2024/04/25 Qlik医療データ活用勉強会_第36回_202404.pptx
2024/04/25 Qlik医療データ活用勉強会_第36回_202404.pptxQlikPresalesJapan
 
Qlik TECH TALK 組織のメタデータを一元管理「Talend Data Catalog」のご紹介
Qlik TECH TALK 組織のメタデータを一元管理「Talend Data Catalog」のご紹介Qlik TECH TALK 組織のメタデータを一元管理「Talend Data Catalog」のご紹介
Qlik TECH TALK 組織のメタデータを一元管理「Talend Data Catalog」のご紹介QlikPresalesJapan
 
Qlik Tips 20240416 Qlik Senseのトレンド線の係数の計算方法
Qlik Tips 20240416 Qlik Senseのトレンド線の係数の計算方法Qlik Tips 20240416 Qlik Senseのトレンド線の係数の計算方法
Qlik Tips 20240416 Qlik Senseのトレンド線の係数の計算方法QlikPresalesJapan
 
Qlik Tips - 2024/04/16 Capacity データ消費の確認
Qlik Tips - 2024/04/16 Capacity データ消費の確認Qlik Tips - 2024/04/16 Capacity データ消費の確認
Qlik Tips - 2024/04/16 Capacity データ消費の確認QlikPresalesJapan
 
Talend Studioで独自関数を実装して呼び出す - グローバルルーチンとカスタムルーチンJar
Talend Studioで独自関数を実装して呼び出す - グローバルルーチンとカスタムルーチンJarTalend Studioで独自関数を実装して呼び出す - グローバルルーチンとカスタムルーチンJar
Talend Studioで独自関数を実装して呼び出す - グローバルルーチンとカスタムルーチンJarQlikPresalesJapan
 
Qlik TECHTALK Qlik Cloud 日本リージョン開設!テナント作成と移行方法を解説
Qlik TECHTALK Qlik Cloud 日本リージョン開設!テナント作成と移行方法を解説Qlik TECHTALK Qlik Cloud 日本リージョン開設!テナント作成と移行方法を解説
Qlik TECHTALK Qlik Cloud 日本リージョン開設!テナント作成と移行方法を解説QlikPresalesJapan
 
Talend Cloudの管理プラットフォーム Talend Management Consoleのご紹介
Talend Cloudの管理プラットフォームTalend Management Consoleのご紹介Talend Cloudの管理プラットフォームTalend Management Consoleのご紹介
Talend Cloudの管理プラットフォーム Talend Management Consoleのご紹介QlikPresalesJapan
 
【Qlik 医療データ活用勉強会】-速報-令和4年度DPC「退院患者調査」データの活用
【Qlik 医療データ活用勉強会】-速報-令和4年度DPC「退院患者調査」データの活用【Qlik 医療データ活用勉強会】-速報-令和4年度DPC「退院患者調査」データの活用
【Qlik 医療データ活用勉強会】-速報-令和4年度DPC「退院患者調査」データの活用QlikPresalesJapan
 
Talend StudioでAPIを開発 - SOAP/RESTのサービス開発手法
Talend StudioでAPIを開発 - SOAP/RESTのサービス開発手法Talend StudioでAPIを開発 - SOAP/RESTのサービス開発手法
Talend StudioでAPIを開発 - SOAP/RESTのサービス開発手法QlikPresalesJapan
 
Direct QueryのカスタムSQL(Qlik Tips ~ Qlik を使いこなす!スキルアップ勉強会)
Direct QueryのカスタムSQL(Qlik Tips ~ Qlik を使いこなす!スキルアップ勉強会)Direct QueryのカスタムSQL(Qlik Tips ~ Qlik を使いこなす!スキルアップ勉強会)
Direct QueryのカスタムSQL(Qlik Tips ~ Qlik を使いこなす!スキルアップ勉強会)QlikPresalesJapan
 
Talend Studioの汎用JDBCコンポーネントを使う - JDBC API
Talend Studioの汎用JDBCコンポーネントを使う - JDBC APITalend Studioの汎用JDBCコンポーネントを使う - JDBC API
Talend Studioの汎用JDBCコンポーネントを使う - JDBC APIQlikPresalesJapan
 
20240319 Qlik Tips 折れ線チャートの時系列予測についての説明
20240319  Qlik Tips  折れ線チャートの時系列予測についての説明20240319  Qlik Tips  折れ線チャートの時系列予測についての説明
20240319 Qlik Tips 折れ線チャートの時系列予測についての説明QlikPresalesJapan
 
どうしてそうなったのか?機械学習モデルで「結果」の「理由」を知るキードライバー分析
どうしてそうなったのか?機械学習モデルで「結果」の「理由」を知るキードライバー分析どうしてそうなったのか?機械学習モデルで「結果」の「理由」を知るキードライバー分析
どうしてそうなったのか?機械学習モデルで「結果」の「理由」を知るキードライバー分析QlikPresalesJapan
 
TECH TALK Talend Administration Center の紹介
TECH TALK Talend Administration Center の紹介TECH TALK Talend Administration Center の紹介
TECH TALK Talend Administration Center の紹介QlikPresalesJapan
 
【Qlik 医療データ活用勉強会】機能評価係数Ⅱの内訳データの分析  -その2-
【Qlik 医療データ活用勉強会】機能評価係数Ⅱの内訳データの分析  -その2-【Qlik 医療データ活用勉強会】機能評価係数Ⅱの内訳データの分析  -その2-
【Qlik 医療データ活用勉強会】機能評価係数Ⅱの内訳データの分析  -その2-QlikPresalesJapan
 
Qlik What's New - February 2024 リリースの新機能のご紹介
Qlik What's New - February 2024 リリースの新機能のご紹介Qlik What's New - February 2024 リリースの新機能のご紹介
Qlik What's New - February 2024 リリースの新機能のご紹介QlikPresalesJapan
 
20240213_TechTalk_TalendStudio.pptx
20240213_TechTalk_TalendStudio.pptx20240213_TechTalk_TalendStudio.pptx
20240213_TechTalk_TalendStudio.pptxQlikPresalesJapan
 
20240206 Qlik Tips Pivot Straight TBL の改善
20240206 Qlik Tips Pivot Straight TBL の改善20240206 Qlik Tips Pivot Straight TBL の改善
20240206 Qlik Tips Pivot Straight TBL の改善QlikPresalesJapan
 
新しいテキストオブジェクト
新しいテキストオブジェクト新しいテキストオブジェクト
新しいテキストオブジェクトQlikPresalesJapan
 

More from QlikPresalesJapan (20)

Talend Studioのビッグデータ対応機能のご紹介 - Hadoop, HDFS, Hive, HBase, Spark, NoSQL
Talend Studioのビッグデータ対応機能のご紹介 - Hadoop, HDFS, Hive, HBase, Spark, NoSQLTalend Studioのビッグデータ対応機能のご紹介 - Hadoop, HDFS, Hive, HBase, Spark, NoSQL
Talend Studioのビッグデータ対応機能のご紹介 - Hadoop, HDFS, Hive, HBase, Spark, NoSQL
 
2024/04/25 Qlik医療データ活用勉強会_第36回_202404.pptx
2024/04/25 Qlik医療データ活用勉強会_第36回_202404.pptx2024/04/25 Qlik医療データ活用勉強会_第36回_202404.pptx
2024/04/25 Qlik医療データ活用勉強会_第36回_202404.pptx
 
Qlik TECH TALK 組織のメタデータを一元管理「Talend Data Catalog」のご紹介
Qlik TECH TALK 組織のメタデータを一元管理「Talend Data Catalog」のご紹介Qlik TECH TALK 組織のメタデータを一元管理「Talend Data Catalog」のご紹介
Qlik TECH TALK 組織のメタデータを一元管理「Talend Data Catalog」のご紹介
 
Qlik Tips 20240416 Qlik Senseのトレンド線の係数の計算方法
Qlik Tips 20240416 Qlik Senseのトレンド線の係数の計算方法Qlik Tips 20240416 Qlik Senseのトレンド線の係数の計算方法
Qlik Tips 20240416 Qlik Senseのトレンド線の係数の計算方法
 
Qlik Tips - 2024/04/16 Capacity データ消費の確認
Qlik Tips - 2024/04/16 Capacity データ消費の確認Qlik Tips - 2024/04/16 Capacity データ消費の確認
Qlik Tips - 2024/04/16 Capacity データ消費の確認
 
Talend Studioで独自関数を実装して呼び出す - グローバルルーチンとカスタムルーチンJar
Talend Studioで独自関数を実装して呼び出す - グローバルルーチンとカスタムルーチンJarTalend Studioで独自関数を実装して呼び出す - グローバルルーチンとカスタムルーチンJar
Talend Studioで独自関数を実装して呼び出す - グローバルルーチンとカスタムルーチンJar
 
Qlik TECHTALK Qlik Cloud 日本リージョン開設!テナント作成と移行方法を解説
Qlik TECHTALK Qlik Cloud 日本リージョン開設!テナント作成と移行方法を解説Qlik TECHTALK Qlik Cloud 日本リージョン開設!テナント作成と移行方法を解説
Qlik TECHTALK Qlik Cloud 日本リージョン開設!テナント作成と移行方法を解説
 
Talend Cloudの管理プラットフォーム Talend Management Consoleのご紹介
Talend Cloudの管理プラットフォームTalend Management Consoleのご紹介Talend Cloudの管理プラットフォームTalend Management Consoleのご紹介
Talend Cloudの管理プラットフォーム Talend Management Consoleのご紹介
 
【Qlik 医療データ活用勉強会】-速報-令和4年度DPC「退院患者調査」データの活用
【Qlik 医療データ活用勉強会】-速報-令和4年度DPC「退院患者調査」データの活用【Qlik 医療データ活用勉強会】-速報-令和4年度DPC「退院患者調査」データの活用
【Qlik 医療データ活用勉強会】-速報-令和4年度DPC「退院患者調査」データの活用
 
Talend StudioでAPIを開発 - SOAP/RESTのサービス開発手法
Talend StudioでAPIを開発 - SOAP/RESTのサービス開発手法Talend StudioでAPIを開発 - SOAP/RESTのサービス開発手法
Talend StudioでAPIを開発 - SOAP/RESTのサービス開発手法
 
Direct QueryのカスタムSQL(Qlik Tips ~ Qlik を使いこなす!スキルアップ勉強会)
Direct QueryのカスタムSQL(Qlik Tips ~ Qlik を使いこなす!スキルアップ勉強会)Direct QueryのカスタムSQL(Qlik Tips ~ Qlik を使いこなす!スキルアップ勉強会)
Direct QueryのカスタムSQL(Qlik Tips ~ Qlik を使いこなす!スキルアップ勉強会)
 
Talend Studioの汎用JDBCコンポーネントを使う - JDBC API
Talend Studioの汎用JDBCコンポーネントを使う - JDBC APITalend Studioの汎用JDBCコンポーネントを使う - JDBC API
Talend Studioの汎用JDBCコンポーネントを使う - JDBC API
 
20240319 Qlik Tips 折れ線チャートの時系列予測についての説明
20240319  Qlik Tips  折れ線チャートの時系列予測についての説明20240319  Qlik Tips  折れ線チャートの時系列予測についての説明
20240319 Qlik Tips 折れ線チャートの時系列予測についての説明
 
どうしてそうなったのか?機械学習モデルで「結果」の「理由」を知るキードライバー分析
どうしてそうなったのか?機械学習モデルで「結果」の「理由」を知るキードライバー分析どうしてそうなったのか?機械学習モデルで「結果」の「理由」を知るキードライバー分析
どうしてそうなったのか?機械学習モデルで「結果」の「理由」を知るキードライバー分析
 
TECH TALK Talend Administration Center の紹介
TECH TALK Talend Administration Center の紹介TECH TALK Talend Administration Center の紹介
TECH TALK Talend Administration Center の紹介
 
【Qlik 医療データ活用勉強会】機能評価係数Ⅱの内訳データの分析  -その2-
【Qlik 医療データ活用勉強会】機能評価係数Ⅱの内訳データの分析  -その2-【Qlik 医療データ活用勉強会】機能評価係数Ⅱの内訳データの分析  -その2-
【Qlik 医療データ活用勉強会】機能評価係数Ⅱの内訳データの分析  -その2-
 
Qlik What's New - February 2024 リリースの新機能のご紹介
Qlik What's New - February 2024 リリースの新機能のご紹介Qlik What's New - February 2024 リリースの新機能のご紹介
Qlik What's New - February 2024 リリースの新機能のご紹介
 
20240213_TechTalk_TalendStudio.pptx
20240213_TechTalk_TalendStudio.pptx20240213_TechTalk_TalendStudio.pptx
20240213_TechTalk_TalendStudio.pptx
 
20240206 Qlik Tips Pivot Straight TBL の改善
20240206 Qlik Tips Pivot Straight TBL の改善20240206 Qlik Tips Pivot Straight TBL の改善
20240206 Qlik Tips Pivot Straight TBL の改善
 
新しいテキストオブジェクト
新しいテキストオブジェクト新しいテキストオブジェクト
新しいテキストオブジェクト
 

Google BigQueryのターゲットエンドポイントとしての利用

  • 1. © 2019 QlikTech International AB. All rights reserved. Google BigQueryの ターゲットエンドポイント としての利用 クリックテック・ジャパン株式会社
  • 2. © 2019 QlikTech International AB. All rights reserved. 2 • Google BigQuery側での基本セットアップ • Qlik Replicate側での基本セットアップ • Qlik Replicateでのエンドポイント定義 • 制限事項など アジェンダ
  • 3. © 2019 QlikTech International AB. All rights reserved. 3 Google BigQuery 側での基本セットアップ
  • 4. 4 必要な権限 このセクションでは、レプリケートに必要な Google クラウド BigQuery サービス アカウントのアクセス許可について説明します。 • ターゲットにデータセットを作成するレプリケーションタスクが必要ない場合は、次のロールを設定します。  Project >オーナーもしくは編集者  BigQuery > BigQueryデータオーナー • ターゲットにデータセットを作成するためにレプリケーションタスクが必要な場合は、次のロールを設定します。  Project >オーナーもしくは編集者  BigQuery > BigQueryデータ編集者 • サービス アカウント キーを作成すると、接続情報を含む JSON ファイルがコンピューターにダウンロードされます。このファイルの内 容を Google Cloud BigQuery エンドポイントのService account keyフィールドにコピーする必要があります。
  • 6. 6 サービスアカウントの作成 • [APIとサービス] > [認証情報]を選択します。 • 画面トップの[認証情報を作成] > [サービスアカウント]を選択します。
  • 7. 7 サービスアカウントの作成 • [サービスアカウント名]を入力して[作成して続行]をクリックします。 • [ロールを選択]をクリックし、[現在使用中] > [オーナー] (もしくは [Project] > [オーナー])を選択します。
  • 8. 8 サービスアカウントの作成 • [別のロールを追加]をクリックします。 • [BigQuery] > [BigQueryデータオーナー]もしくは[BigQuery データ編集者]を選択し、[続行]をクリックします。
  • 9. 9 サービスアカウントの作成 • [完了]をクリックします。 • 作成したサービスアカウントをクリックします。
  • 10. 10 サービスアカウントの作成 • [キー]のタブを選択し、[鍵を追加] > [新しい鍵を作成]を選択し ます。 • [JSON] を選択して、[作成]をクリックします。
  • 13. 13 Qlik Replicate for Windows • Replicateサーバー マシンに以下のリンクからSimba ODBC driver 2.3.3.1005をダウンロードしてインストールします。 • https://storage.googleapis.com/simba-bq-release/odbc/SimbaODBCDriverforGoogleBigQuery64_2.3.3.1005.msi
  • 14. 14 Qlik Replicate for Windows Replicateサーバー マシンにGoogle Cloud SDK 315.0.0をインストールします。 方法1: • 以下のサイトの手順に従って、 Google Cloud SDK 315.0.0をインストールします。  バージョニングされたアーカイブからのインストール | Cloud SDK のドキュメント | Google Cloud • 以下のいずれかのリンクからソフトウェアをダウンロードしてください。  https://storage.cloud.google.com/cloud-sdk-release/google-cloud-sdk-315.0.0-windows-x86_64.zip  https://storage.cloud.google.com/cloud-sdk-release/google-cloud-sdk-315.0.0-windows-x86_64-bundled- python.zip (※ SDKにはPythonが必要です。環境にPythonが導入されていない場合にはこちらを利用ください) • もしくは、以下のサイトで旧バージョンのSDKがアーカイブされており、ここから315.0.0のGoogle Cloud SDKをダウンロードすることも可能です。  https://console.cloud.google.com/storage/browser/cloud-sdk-release 方法2: • Google から最新バージョンの Google Cloud SDK をダウンロードしてインストールします。  https://dl.google.com/dl/cloudsdk/channels/rapid/GoogleCloudSDKInstaller.exe • 次のコマンドを発行して、バージョン 315.0.0 にダウングレードします。 gcloud components update --version 315.0.0
  • 15. 15 Qlik Replicate for Linux レプリケートタスクでターゲット エンドポイントとして Google Cloud BigQueryを使用できるようにするには、次の手順を実行する必要があります。 • Simba ODBC driver version 2.3.3.1005をReplicateサーバーコンピュータにダウンロードします。  https://storage.googleapis.com/simba-bq-release/odbc/SimbaODBCDriverforGoogleBigQuery_2.3.3.1005-Linux.tar.gz • SimbaODBCDriverforGoogleBigQuery64_2.3.3.1005.tar.gzを以下のフォルダに展開します。  /opt/SimbaODBCDriverforGoogleBigQuery_2.3.3.1005-Linux • 展開したファイルに含まれる、以下のファイルをさらに展開します。  /opt/SimbaODBCDriverforGoogleBigQuery_2.3.3.1005/LinuxSimbaODBCDriverforGoogleBigQuery64_2.3.3.1005.tar.gz • 以下の2つのファイルを/opt/SimbaODBCDriverforGoogleBigQuery_2.3.3.1005-Linux/SimbaODBCDriverforGoogleBigQuery64_2 3.3.1005/libに移動します。  /opt/SimbaODBCDriverforGoogleBigQuery_2.3.3.1005-Linux/GoogleBigQueryODBC.did  /opt/SimbaODBCDriverforGoogleBigQuery_2.3.3.1005-Linux/setup/simba.googlebigqueryodbc.ini
  • 16. 16 Qlik Replicate for Linux • 次のように、googlebigqueryodbc.iniファイルを編集します。  ErrorMessagesPath をODBC メッセージを含む XML ファイルのパスに変更します。既定の場所は次のとおりです。 ErrorMessagesPath=/opt/SimbaODBCDriverforGoogleBigQuery_2.3.3.1005- Linux/SimbaODBCDriverforGoogleBigQuery64_2.3.3.1005/ErrorMessages  DriverManagerEncodingをUTF-16に変更します。
  • 17. 17 Qlik Replicate for Linux • Qlik Replicateのbinディレクトリにあるsite_arep_login.shファイルに次のパスを追加します。 export LD_LIBRARY_PATH=$LD_LIBRARY_PATH:/opt/SimbaODBCDriverforGoogleBigQuery_2.3.3.1005- Linux/SimbaODBCDriverforGoogleBigQuery64_2.3.3.1005/lib • /etc/odbcinst.iniファイルを編集し、ドライバパス (ドライバがインストールされているパス) を追加します。 [ODBC Drivers] Simba= Installed Simba ODBC Driver for Google BigQuery = Installed [Simba ODBC Driver for Google BigQuery] Description=Simba ODBC Driver for Google BigQuery(64-bit) Driver=/opt/SimbaODBCDriverforGoogleBigQuery_2.3.3.1005- Linux/SimbaODBCDriverforGoogleBigQuery64_2.3.3.1005/lib/libgooglebigqueryodbc_sb64.so
  • 18. 18 Qlik Replicate for Linux • Replicateサーバー マシンで Google Cloud SDK 315.0.0 for Linuxをダウンロードしてインストールします。  https://dl.google.com/dl/cloudsdk/channels/rapid/downloads/google-cloud-sdk-315.0.0-linux-x86_64.tar.gz • SDKを初期化せずに、Linux に gcloud をインストールします。  インストール手順については、「Quickstart: Getting started with Cloud SDK」を参照してください。  Replicateサービスユーザー(既定: attunity)に対してSDKのbinディレクトリをPATHとして登録する必要があります。Install.sh実行時にパス 登録対象のファイルとして、/etc/profileや/home/attunity/.bashrcなどを指定してパスの登録を行ってください。 • Replicateサービスを再起動します。  /opt/attunity/replicate/bin/areplicate restart
  • 19. 19 Qlik Replicateの動作について • ReplicateとBigQueryでは、それぞれ以下に対応します。 • bq コマンドを実行してBigQueryへのデータロードが実行されます。 • このユーティリティはクラウド ストレージを使用せず、データは直接BigQueryのテーブルにロードされます。 • GBQ ターゲットで指定された資格情報で bq を実行すると、そのプロジェクトの gcloud を使用して顧客が設定した既存の資格情報 が上書きされます。 • ファイルは、BigQuery に圧縮されず、暗号化されていない状態でロードされます。 Qlik Replicate BigQuery Database Project Schema Dataset Table Table
  • 21. 21 一般的な接続プロパティの設定 1. Tasksビューで、[Manage Endpoint Connections ] をクリックして、[New Endpoint Connection] ボタンをクリックします。 2. [Name]フィールドに、エンドポイントの名前を入力しま す。使用するエンドポイントを識別するのに役立つ任意の 名前を指定できます。 3. 必要に応じて、[Description] フィールドに、エンドポ イントを識別するための説明を入力します。 4. エンドポイントRoleとして[Target ] を選択します。 5. エンドポイントの [Type]として[Google Cloud BigQuery]を選択します。 6. [Service account key] フィールドに、BigQuery サービス アカウント キーの作成時にダウンロードされた JSON ファイルの内容 (中かっこを含む) を貼り付けます。
  • 22. 22 高度な接続プロパティの設定 [Advanced]タブでは、次のパラメータを設定できます。 • Max file size (KB): ファイルが Google Cloud BigQuery ターゲット データベースに読み込まれる前に、CSV ファイルの最大サ イズ (KB 単位) を選択または入力します。 • Location:レプリケートによって作成されたデータセットをアップロード する場所 。 • Default dataset prefix:ターゲットテーブルを作成および更新 するBigQueryデータセットのプレフィックスを指定します。 ※ これは、[Apply Changes] レプリケーション オプションが選 択されている場合に必要です。 • Create tables as clustered by primary key: このオプ ションを選択すると、ターゲットテーブルはクラスタとして作成されます (クラスタ化をサポートする最初の 4 つのプライマリキー列に従います)。 一般に、クラスター化されたテーブルは、通常、クエリのパフォーマンス を向上させるだけでなく、請求コストを削減します。 ※ クラスター化されたデータ・タイプの主キーを持つ表のみを作成 できます:日付、BOOL、GEOGRAPHY、INT64、数値、ス トリング、および TIMESTAMP。 ※ このオプションを選択した後で、ターゲットでテーブルをクラスター として作成しないようにする場合は、このオプションをオフにして タスクを再ロードします。
  • 23. 23 クォータへの対応 • BigQueryには操作量に以下の制限(クォータ)があります  1 日あたりのテーブル オペレーション最大数 - 1,500個のオペレーション  詳細は「割り当てと上限 | BigQuery | Google Cloud 」のページをご参照ください。また、Replicateのクォータへの対応の 最新情報はLimitations and considerations ‒ Qlik Replicateをご確認ください。 • これらの制限を回避するには、次の手順を実行します。  前項のエンドポイント設定の [Advanced] タブで、最大ファイル サイズ (MB) = 1000 以上を使用します。
  • 24. 24 クォータへの対応 • [Task Settings]を開き、[Change Processing]>[Change Processing Tuning]上で:  [Batch optimized apply]が選択されていることを確認  [Apply batched changes in intervals]の[Longer than (seconds)]の値を60以上に設定
  • 25. 25 クォータへの対応 • [Task Settings]を開き、[Change Processing]>[Change Processing Tuning]上で[Apply changes using SQL MERGE] をONにすることで、処理を行うSQLステートメントの数を減らすことができます。
  • 26. 26 クォータへの対応 • [Apply changes using SQL MERGE]の詳細について  [Task Settings]を開き、[Change Processing]>[Change Processing Tuning]上で設定ができます。  このオプションを選択しない場合、Batch optimized apply操作は、レプリケート NET テーブル内の異なる変更の種類ごとに個別の一括 INSERT、UPDATE、および DELETE ステートメントを実行します。  次に、1つの MERGE ステートメントを実行して、一連の NET テーブル変更をターゲット テーブルに適用します。  この方法は非常に効率的ですが、このオプションをサポートするエンドポイントを操作する場合は、[Apply changes using SQL MERGE] オプションを有効にした方がより効率的です。  この場合、テーブルごとに実行される SQL ステートメントの数が3から1に減ります。大規模で変更できないファイルベースのクラウド データ ベース (Google Cloud BigQueryなど) での UPDATE 操作の大半は、影響を受けるファイルの書き換えを伴います。このような操作 では、テーブルごとの SQL ステートメントを3から1に減額することは非常に重要です。  ターゲット データベースは、1 回だけ NET テーブルをスキャンするだけで、I/O が大幅に削減されます。  このオプションが有効になっている場合、エラー処理に以下の制限がありますのでご注意ください: • 致命的でないデータ エラーまたは回復できないDataエラーは、Tableエラーとして処理されます。 • Global error handling policyは使用できません • Apply Conflicts error handling policyは、事前設定され、編集不可になります。 • Data error handling policyオプションの一部は使用できません。  このオプションは、Salesforce および Oracle のソースエンドポイントではサポートされません。
  • 28. 28 制限事項 レプリケート タスクのターゲットとして Google Cloud BigQueryを使用する場合は、次の制限が適用されます。 • 次のDDLはサポートされていません。  Drop column  Rename column  Change column data type  Rename table • ファイルは、圧縮されず、また暗号化されない形でBigQueryにロードされます。 • Transactional Apply Change Processing Modeはサポートされていません。 • Google Cloud BigQuery では、1 日あたりテーブルあたり最大 1500 Load Operationのクォータが適用されます。この制限を回避するには、エンドポイ ント設定のAdvancedタブで[Max file size(MB)]の値を 1000 (既定) より大きくします。 • [Allow unlimited LOB size] のLOB処理オプションはサポートされていません。 • 主キーを使用せずにソース テーブルから変更をキャプチャすることはできません。このようなテーブルから変更をキャプチャする必要がある場合は、変換を利用し て主キーを追加できます。 • Apply ConflictsとData Errorsの [Log record to the exceptions table] のエラー処理オプションはサポートされていません。 • 次のタスク設定の構成では、UPDATEが発生したときに、DELETE 操作の後に INSERT 操作が実行されます。  Change Processing ModeがBatch optimized applyに設定されている  [Apply changes using SQL MERG]オプションが選択されていない  UPDATE の Apply Conflicts error handling が、No record found for applying an UPDATE: INSERT the missing target record • Google Cloud BigQuery ではロールバックがサポートされないため、レプリケートが更新された行を挿入できない場合、データはターゲットから削除されます。
  • 29. 29 データ型 Qlik Replicateデータ型 Amazon Redshift データ型 BOOLEAN BOOL BYTES VARCHAR (Length) DATE DATE TIME VARCHAR(20) DATETIME スケールが => 0 と =< 6 の場合は、次のようになります: TIMESTAMP (s) スケールが => 7 および =< 12 の場合は、次のようになります: VARCHAR (37) INT1 INT2 INT2 INT2 INT4 INT4 INT8 INT8 NUMERIC スケールが => 0 および =< 37 の場合は、次のようになります: NUMERIC (p,s) スケールが => 38 で =< 127 の場合は、次のようになります: VARCHAR (Length) REAL4 FLOAT4 REAL8 FLOAT8 STRING 長さが => 1 および =< 65535 の場合は、次のようになります: VARCHAR (Length in Bytes) 長さが => 65535 および =< 2147483647 の場合は、次のようになります: VARCHAR (65535) UINT1 INT2 UINT2 INT4 UINT4 INT8 UINT8 NUMERIC (20,0) WSTRING 長さが => 1 および =< 65535 の場合は、次のようになります: NVARCHAR (Length in Bytes) 長さが => 65536 および =< 2147483647 の場合は、次のようになります: NVARCHAR (65535) BLOB VARCHAR (Max LOB Size *2) [Metadata] タブの最大 LOB サイズは 31 KB を超えることはできません。 NCLOB NVARCHAR (Max LOB Size) [Metadata] タブの最大 LOB サイズは 31 KB を超えることはできません。 CLOB VARCHAR (Max LOB Size) [Metadata] タブの最大 LOB サイズは 31 KB を超えることはできません。 Qlik レプリケートのAmazon Redshiftデータベースは、ほとんどの Amazon Redshiftデータ型をサポートしています。次の表は、Qlik Replicateを使用する場合にサポートされ る Amazon Redshift ターゲットデータ型と、Qlik Replicateデータ型からのデフォルトマッピングを示しています。