SlideShare une entreprise Scribd logo
1  sur  178
2022/4/26
クリックテック・ジャパン株式会社
中嶋 翔 Senior Solution Architect
Hybrid Data Delivery
ハイブリッドデータ配信
Qlik TECH TALK
2
TECH TALKとは?
Qlikの製品や機能の中から
特定のテーマを取り上げて、
技術的な情報を発信していくセミナーです。
3
Q&Aについて
• 質問はZoom画面下のQAアイコンをクリックして入力してください。
• 質問に対してQlikパネラーが随時QAパネルで回答します。
• 質問と回答については、セミナーの最後に他の参加者に情報共有させていただきます。
4
本日の動画と資料について
• 本セッションの資料と動画は後日TechPlayのレポートで公開されます。
• 以前のセッションにつきましては、YouTubeのプレイリスト、 Slideshareをご覧ください。
• SlideShareからのPDF版資料のダウンロードは、SlideShareへの登録が必要となります。
5
アジェンダ • Hybrid Data Deliveryの概要
• システム要件と制限
• データスペース
• DEMO
• FAQ
• Q&A
• その他の情報
• Appendix
• オンプレミスデータソースからのデータランディング
• クラウドデータソースからのデータランディング
• ストレージデータアセットの作成
• HDDで生成したテーブルを使用した分析アプリの作成
6
Hybrid Data
Deliveryの概要
7
Qlik Cloud Vision
アクティブ・インテリジェンス・プラットフォーム
Qlik Cloud
RDBMS Files
Mainframe
SaaS Apps
SAP
Analytics Services
Data Warehouse Data Lake
Data Services
Stream
Developer
& API
Collaboration
Governance
& Security
Catalog &
Lineage
Associative
Engine
Hybrid Data
Delivery
Application
Automation
Data
Transformation
Data
Warehouse
Automation
Artificial
Intelligence
Orchestration
Augmented
Analytics
Alerting
&
Action
Visualization
& Dashboards
Universal Connectivity
On-premises
Hybrid Cloud
Embedded
Analytics
Foundational Services
8
Hybrid Data Delivery ハイブリッドデータ配信
• Qlik CloudやクラウドDWHにニアリアルタイムでデータ
を取り込むための統合データインテグレーション
• 生データからインサイト獲得とアクションまでの時間を短縮
• CDCやバッチリロードにより、手動操作なしで常にデータを
最新に保つ
• コーディングやETLスクリプトなしでオンプレミスソースとク
ラウドソースをサポート
Qlik Cloud Data Services:
Hybrid Data Delivery
9
オンプレミスとクラウドのデータソースに対応
• 様々なデータソースからデータをランディングすることができます。
- オンプレミスデータのランディング (Qlik Replicate/Enterprise Managerを使用)
• Qlik Replicateでサポートされているデータソースからデータをランディングすることができます。
• 詳細については、「サポートされているデータソース」を参照してください。
- クラウドデータソースからのデータランディング
• Qlik Cloudのデータ接続を通じてデータをランディングすることができます。
• 詳細については、「サポートされるQlik Cloudデータソース」を参照してください。
10
Qlik Replicateサポートマトリクス
ソース ターゲット
 Oracle
 SQL Server
 DB2 iSeries
 DB2 z/OS
 DB2 LUW
 MySQL
 PostrgeSQL
 Sybase ASE
 Informix
 SAP HANA
 ODBC
 DB2 z/OS
 IMS/DB
 VSAM
 COBOL Copybooks
 ECC
 ERP
 CRM
 SRM
 GTS
 MDG
 SAP ECC - HANA
 SAP HANA (database)
 (on Oracle, SQL, DB2 LUW,
HANA)
Database Mainframe SAP
 Exadata
 Teradata
 Netezza
 Vertica
 Pivotal
 Amazon RDS
(SQL Server, Oracle,
MySQL, Postgres)
 Amazon Aurora (MySQL)
 Azure SQL Server MI
 Google Cloud SQL (MySQL,
PostgreSQL)  Salesforce
EDW
Cloud
SaaS
 XML
 JSON
 Delimited
(e.g., CSV, TSV)
Flat Files
 RDS (MySQL, Postgres,
MariaDB, Oracle, SQL Server)
 Aurora (MySQL, Postgres)
 S3
 EMR
 Kinesis
 Redshift
 Snowflake
 Databricks (Q2)
 DBaaS (SQL DB)
 DBaaS (MySQL, Postgres)
 ADLS Gen1 & 2
 BLOB
 HDInsight
 Event Hub
 Synapse (SQL DW)
 Snowflake
 Databricks
 Cloud SQL (MySQL, Postgres)
 Cloud Storage
 Dataproc
 Pub/Sub (‘20)
 BigQuery ( ‘20)
 Snowflake (‘20)
AWS Azure Google
 Hortonworks
 Cloudera
 MapR
 Amazon EMR
 Azure HDInsight
 Google Dataproc
 Kafka
 Amazon Kinesis
 Azure Event Hubs
 MapR Streams
 Exadata
 Teradata
 Netezza
 Vertica
 Sybase IQ
 SAP HANA
 Microsoft PDW
Data Lake
Streaming
EDW
 Oracle
 SQL Server
 DB2 LUW
 MySQL
 PostgreSQL
 Sybase ASE
 Informix
 MemSQL
Database
 SAP HANA (database)
SAP
 Delimited
(e.g., CSV, TSV)
Flat Files
11
サポートされるQlik Cloudデータソース
• 以下のQlik Cloudデータソースに対応しています。
12
Hybrid Data Delivery のポジション
Qlikのデータオプションを比較
手動アップロード
ペルソナ: ビジネスアナリスト
組織: ユーザー
QSのコネクター
ペルソナ: ビジネスアナリスト
組織: ユーザー
Qlik DataTransfer
ペルソナ: ビジネスアナリスト
組織: ユーザー
Hybrid Data Delivery
ペルソナ: データエンジニア
組織: IT部門
新しいデータや実験的なデー
タを扱う、アドホックなデータ
解析
データソースに直接接続し、
データをQCSに取り込んで分
析することが可能
オンプレミスからQCSへデータや
ファイルをQCSに転送する軽量
なユーティリティ
オンプレミス(またはクラウドソー
ス)からQCSやクラウドDWHへ
のエンタープライズクラスのデータ
デリバリーサービス
ネイティブコネクタ + ODBC + SDK
CDC(変更データキャプチャ)
ソースへの負荷を最小化
継続的データ配信
プロトコルベース (ODBC)
スケジュール実行
Windowsのみ対応
最大ファイルサイズ (6GB)
転送1回あたりファイル数制限あり
プロトコルベース
(例: ODBC)
ファイルが対象
13
データ配信の流れ
ハイレベルフロー
・オンプレミスソース
・クラウドソース
14
Qlik Replicateによるオンプレミスデータの配信
• Qlik Enterprise ManagerとQlik Cloudを接続するために、「リモートEnterprise Managerリソース」を追
加します。この設定は一度だけ実行します。
- Qlik Cloudのテナント管理者ロールと、Qlik Enterprise ManagerのEnterprise ManagerレベルのAdmin権限が必要
15
Qlik Replicateによるオンプレミスデータの配信
• Qlik Enterprise ManagerでReplicateタスクを作成し、データソースからクラウドのランディングエリアにデータを転送します。クラウドラ
ンディングエリアは、Amazon S3バケット、またはSnowflake、Google Cloud BigQuery、Azure Synapse Analytics
などのクラウドDWHを選択できます。「フルロードとCDC」、または「フルロードのみ」の2種類のモードでデータをランディングさせることがで
きます。
16
Qlik Replicateによるオンプレミスデータの配信
• Qlik Cloud Data Servicesでランディングデータアセットを作成し、Replicateタスクに関連付けます。ランディ
ングデータアセットは、データをランディングさせるReplicateタスクを制御します。CDCを使用しない場合、定期的にリ
ロードをスケジュールすることで、手動で操作することなくデータを最新の状態に保つことができます。
17
Qlik Replicateによるオンプレミスデータの配信
• ランディングデータからテーブルを生成するためのストレージデータアセットを作成します。
- Amazon S3バケットにランディングした場合、QVDテーブルを生成することができます。
- クラウドDWHにランディングした場合、同じクラウドDWHでテーブルとビューを生成することができます。
18
Qlik Replicateによるオンプレミスデータの配信
• 分析アプリで生成したデータセットを利用します。
19
クラウドデータソースからのデータ配信
• クラウドデータソースからランディングエリアにデータを着地させるランディングデータアセットを作成します。
20
クラウドデータソースからのデータ配信
• ランディングデータアセットでランディングしたデータから、クラウドデータウェアハウスですぐに利用できるテーブルを作成す
るストレージデータアセットを作成します。
21
クラウドデータソースからのデータ配信
• 分析アプリでデータセットを利用します。
22
画面構成、概念、用語
23
概念と用語
• データサービスホーム
• データスペース
• データアセット
- ランディングデータアセット
- ストレージデータアセット
• データリソース
24
データサービスホーム
• クラウドハブのランチャーメニューから[データサービス]を選択すると、データサービスホームにアクセスできます。データ
ソースからデータをランディングエリアに着地させるデータアセットを作成し、分析に適したデータセットを生成することが
できます。
25
データサービスホーム
• データサービスホーム
26
データサービスホーム
• [データアセットの管理]をクリックすると、すべてのデータアセットが表示されます。スペース、所有者、タグによって表
示するデータアセットを絞り込むことができます。タグはデータアセットを作成する際に定義します。
27
データスペース
• データスペースは、Qlik Cloudのテナントで管理される領域で、
目的に合ったテーブルコレクションのデータアセットを作成・保存
するために使用されます。スペース内では、コネクタを使用して新
しいデータ接続を作成することや、リモートEnterprise
Managerリソースを追加することもできます。
• また、すべてのユーザーは、作成したデータアセットがデフォルトで
保存される個人用スペースを持ちます。個人用スペースはプライ
ベートです。スペース間でデータアセットを移動することはできま
せん。=>チームでHDDを使用するときはデータスペースを使
用しましょう。
28
データアセット
• データアセットは、目的に応じたテーブルの集合体です。
Qlik Cloud Data Servicesの主な作業単位です。以下
のタイプのデータアセットを作成することができます。
• Qlik Replicate経由のランディング
• ランディング
• ストレージ (QVD)
• ストレージ (クラウドデータウェアハウス)
• トップメニューの「新規追加」をクリックし、「データアセットの作
成」をクリックして、新しいデータアセットを作成します。データア
セットの作成ダイアログで、作成するアプリの種類を選択しま
す。
29
データアセット
• Qlik Replicate経由のランディング
• オンプレミスのデータソースからランディングエリアにデータをコピーします。
ランディングデータアセットは、実際のランディングを実行するQlik
Replicateタスクに接続されています。ランディングエリアは、
Amazon S3バケットまたはクラウドターゲットにすることができます。
• データをニアリアルタイムに最新に保つCDCを使用するか、フルロードの
みを実行するかを選択することができます。フルロードを定期的にスケ
ジュールすることで、データを最新の状態に保つこともできます。
30
データアセット
• ランディング
• Qlik Cloudのデータ接続を使用して、クラウドデータソースから
ランディングエリアにデータをコピーします。ランディングエリアはクラ
ウドターゲットにすることができます。
• フルロードを実行し、定期的にリロードをスケジュールすることで、
手動で操作することなくデータを最新の状態に保つことができます。
(CDCは非対応)
31
データアセット
• ストレージ (QVD)
• Qlik Replicate経由でAmazon S3ランディングエリアにコピー
されたデータから、QVDテーブルを作成します。
• QVDテーブルは、手動で操作することなく、ランディングデータを
使用して最新に保たれます。
32
データアセット
• ストレージ (クラウドデータウェアハウス)
• ランディングデータアセットでコピーしたデータから、クラウドデータ
ウェアハウスですぐに利用できるテーブルを作成します。テーブルは、
手動で操作することなく、ランディングデータで最新の状態に保た
れます。
• また、クラウドDWHの別のストレージデータアセットを消費して、
SQLベースのテーブルからデータを追加することも可能です。
33
データアセット
• アセットカードは、データアセットの状態を表示します。
• Data is updated to : 現時点までのすべてのソーストランザクションの
データは、このデータアセットから消費することができます。この情報は、以下の
場合にデータアセットで利用可能です。
• すべてのテーブルでフルロードが完了したとき
• CDC を使用している場合、最初の変更セットが処理されたとき
• Tables in error: エラーが発生したテーブルの数です。
• Status: データアセットの状態。アプリがステータス実行中の場合、更新され
たデータをコピーするために継続的に待機しており、必ずしもその時にデータを
コピーしているわけではありません。
• ※データアセットは、管理コンソールでは管理されません。
34
データリソース
• データリソースは、外部ストレージとQlik Enterprise Managerに接続します。
• データ接続
• データアセットが外部ストレージやクラウドデータウェアハウスにアクセスできるようにするために、データ接続
を作成します。
• 新しいデータ接続を作成するには、トップメニューの[新規追加]をクリックし、[データ接続の作成]をクリッ
クします。データソースの種類を選択し、アドレスや認証情報を入力する必要があります。
• データ接続の更新は、データ接続の所有者のみが行うことができます。
• リモートEnterprise Managerリソース
• これは、ランディングタスクを実行するQlik Replicateサーバーを制御するリモートのQlik Enterprise
Managerサーバーへの接続です。
35
データリソース
データアセットの管理ページ
36
ハイブリッドデータ配信の全体像
矢印はデータアセットのタイプを表します。
Qlik Replicate /
Enterprise Manager
(主に)オンプレミス
ソース
Amazon S3 (お客様管理)
クラウド
ソース
QVDs
ターゲット
クラウド
ターゲット
クラウド
ランディングアセット ストレージアセット
Qlik Cloud内ストレージで
QVDを生成・更新
Qlik Replicate
経由のランディング
ランディング
ストレージ(QVD)
S3でQVDを生成・更新
フルロード+CDC /
フルロードのみ
ストレージ(クラウドDWH)
ストレージアセット
SQLベースビュー
フルロードのみ
POINT
QVDs
ランディングアセット ストレージアセット
37
システム要件と制限
38
ハイブリッドデータ配信の一般的な要件
• Qlik Cloud のテナントと Qlik Sense Enterprise SaaSが必要です。
• ユーザーがデータ スペースで データ アセットを作成、管理および実行するには、プロフェッショナル アクセスのライセ
ンスが必要です。
• アナライザーにアクセスできるユーザーは、データ スペースからロードされるデータを含む分析アプリを利用できます。
• Qlik Sense Enterprise SaaS - Government (US) ユーザーはハイブリッド データ配信を使用できません。
• Qlik Cloud 以外のデータソースに接続する場合は、基になる Qlik Cloud IP アドレスを許可リストに追加
する必要がある場合があります。詳細については、プライベート ネットワークからデータ ソースへの接続を参照してく
ださい。
39
Qlik Replicateでデータをランディングするための要件
• Qlik Cloud 以外のデータ ソースに接続する場合は、基になる Qlik Cloud IP アドレスを許可リストに追加する
必要がある場合があります。詳細については、プライベート ネットワークからデータ ソースへの接続を参照してください。
• Qlik Replicate バージョン 2021.11 SR1 以降をインストール。
• 互換性があるバージョンのQlik Replicate は、プロファイル メニューの [プロファイル設定] > [ツール] から随
時ダウンロードできます。
• ライセンス要件:
• ソースタイプ:オンプレミスのデータソースに準ずるライセンス
• ターゲットタイプ:どのクラウドランディングエリアを使用したいかに応じたライセンス
• 注: ライセンスまたは現在の資格情報については、 Qlik 担当者または Qlik サポートに問い合わせるか、「営
業に問い合わせる」フォームに記入してください。
40
Qlik Replicateでデータをランディングするための要件
• Qlik Enterprise Manager バージョン 2021.11 SR 1 以降がインストール済みで、 Qlik Replicate サーバ
へのアクセスが設定済み。
• 互換性があるバージョンのQlik Enterprise Manager は、プロファイルメニューの [プロファイル設定] > [ツール]
から随時ダウンロードできます。
• クラウドから Qlik Enterprise Manager サーバーに論理アクセスできる必要があります。詳細については、
Qlik Enterprise Manager オンラインヘルプの サーバーの追加(英語のみ) を参照してください。
• Qlik Cloudへの接続は、Enterprise Manager レベルの管理者権限が必要です。
• 注: ライセンスまたは現在の資格情報については、 Qlik 担当者または Qlik サポートに問い合わせるか、「営
業に問い合わせる」フォームに記入してください。
• Qlik Enterprise Managerとの接続を確立するときに、リモート Enterprise Manager リソースを作成できる
ようにするには、テナント管理者である必要があります。
41
サポートされるデータソースの要件
• Qlik Replicate でサポートされているデータ ソースを使用できますが、いくつかの制限があります。
• データ ソースは、 Qlik Replicate サーバーからの読み取りアクセスを構成する必要があります。
• CDC の要件
• CDCを使用するには、ソースデータベースが変更処理をサポートしている必要があります。
• 更新イベントですべてのデータを送信しないソースデータベース。例えば、SAP HANA ログベース、Salesforce、および完全なサ
プリメンタルログがオフになっている Oracle などは、データを [フルロードと変更の保存] モードでランディングする場合はサポートさ
れません。
• SAP HANA を使用するには、ソースエンドポイントがトリガーベースモードで動作するように設定されている必要があります。
• Oracle ソースを使用するには、すべてのソーステーブルの列に対して完全なサプリメンタルロギングを使用してソースデータ
ベースを構成する必要があります。
• CDCを使用する場合、すべてのソーステーブルには、少なくとも 1 つの主キー項目または一意のインデックス項目が含まれている必
要があります。主キー項目や一意のインデックス項目のないテーブルは、フルロードで読み込むことができます。
• SAP Extractorを使用するには、ターゲット エンドポイントがプライマリ キーを持つように構成されている必要があります。
42
データを保存するための必要条件
• Qlik Replicate を介してデータを Amazon S3 バケットにランディングした場合は、Qlik Cloud に管理されて
いるストレージまたは自分が管理している Amazon S3 ストレージに QVD テーブルを生成できます。
• Qlik Replicate を介して Snowflake や Azure Synapse Analytics などのクラウド データ ウェアハウスに
データをランディングした場合は、同じクラウド データウェア ハウスにテーブルを生成できます。
43
データを保存するための必要条件
• QVD テーブルを生成するための要件
• [ターゲット タイプ] の Qlik Replicate ライセンス:Qlik Cloud Landing (ハイブリッド データ配信に適応した設定の
Amazon S3)。
• Qlik Replicate サーバマシンからの書き込みアクセスと Qlik Cloud テナントからの読み取りアクセスがあるランディングデータ
用のAmazon S3 バケット。 詳細については、 Qlik Replicate オンラインヘルプの 前提条件(英語のみ) を参照してください。
• 注: ランディングゾーンが安全かどうかを確認する必要があります。Amazon S3-managed keys または AWS KMS-
managed keys を使用してサーバー側の暗号化が可能です。
• ストレージ (QVD) データを Qlik 管理ストレージではなく独自の管理ストレージに保存する場合は、Amazon S3 バケット
が必要です。ランディングデータに使用しているものと同じ Amazon S3 バケットを使用できますが、これには Qlik Cloud
テナントからの書き込みアクセスも必要です。また、ランディングデータ用とストレージ用に別々のフォルダを使用する必要があ
ります。ご自身でストレージを管理している場合、[分析ハブ] の[データからアプリを作成] または [データプロファイル] を使用す
ることはできません。
• 注:管理ストレージが安全かどうかを確認する必要があります。Amazon S3-managed keys または AWS KMS-
managed keys を使用してサーバー側の暗号化が可能です。
44
データを保存するための必要条件
• Snowflake の要件
• [ターゲット タイプ] の Qlik Replicate ライセンス:Snowflake on AWS、Snowflake on Azure また
は Snowflake on Google。
• Amazon Web Services、Google Cloud Platform、または Azure の Snowflake サービスへのアク
セス。
• 詳細については、Qlik Replicate オンライン ヘルプを参照してください。
AWS の Snowflake - 前提条件(英語のみ)
Azure の Snowflake - 前提条件(英語のみ)
Google の Snowflake - 前提条件(英語のみ)
45
データを保存するための必要条件
• Azure Synapse Analytics の要件
• [ターゲットタイプ] のQlik Replicate ライセンス:Microsoft Azure Synapse Analytics。
• 専用の SQL プールを使用した Azure Synapse Analytics サービスへアクセスします。
• 詳細については、 Qlik Replicate オンラインヘルプを参照してください。
Azure Synapse Analytics - 前提条件(英語のみ)
46
データを保存するための必要条件
• Google Cloud BigQuery の要件
• [ターゲットタイプ] のQlik Replicate ライセンス:Google Cloud BigQuery。
• Google Cloud BigQuery サービスへのアクセス。
• 詳細については、 Qlik Replicate オンラインヘルプを参照してください。
Google Cloud BigQuery - 前提条件(英語のみ)
• ロケーションが既定で米国に設定されています。別の場所を使用する場合は、データ接続を作成するとき、ま
たはデータ接続を編集するときに、設定で場所を指定する必要があります。
• [詳細設定] の下にカスタム プロパティを追加します。[名前] を場所に設定し、[値] を使用する場所に設定
します。
47
制限事項
• ハイブリッドデータ配信の使用方法については、いくつかの制限があります。
• 一般的な制限
• データ ソース スキーマの変更はサポートされていません。データ ソースのスキーマを変更する場合は、新しいデータ アセットを
作成する必要があります。
• データ アセットの所有者を変更したり、データ アセットを別のスペースに移動したりすることはできません。
• ランディングエリアの自動クリーンアップはサポートされていません。これはパフォーマンスに影響する可能性があります。手動クリー
ンアップの実行を推奨します。
• ストレージ データ アセット内のテーブルに変更を適用する際、アセット内の異なるテーブル間にトランザクションによる整合性は
ありません。
• ランディングテーブルは、分析ハブにデータセットとして表示されます。これらのテーブルを分析アプリで使用することはできません。
• 2 つの Qlik Replicate タスクをランディングエリア内の同じテーブルに書き込まないようお勧めします。ベストプラクティスは、各
Qlik Replicate タスクに個別のランディングエリアを使用することです。
48
制限事項
• QVD テーブルを生成する際の制限
• データスペースは常に、ストレージ データ アセットの容量を制限するQlik Cloudの標準容量で機能します。ス
トレージ データ アセットによって処理される各テーブルは、変更を含む全体のサイズである必要があります。これ
は、標準アプリでサポートされているアプリサイズ (メモリ内) までです。容量の詳細については、[拡張アプリ
と専用の容量] を参照してください。
49
制限事項
• クラウド データ ウェアハウスの制限
• Snowflake に接続する場合、OAuth 認証はサポートされません。
• すべてのテーブルは同じ内部スキーマに書き込まれ、すべてのビューはストレージ内の同じデータ アセット ス
キーマに書き込まれます。したがって、1 つのランディング データ アセットの異なるスキーマに同じ名前の 2
つのテーブルを含めることはできません。
• 生成されるテーブルの詳細については、 「生成されるテーブルとビューの構造」 を参照してください。
• Google Cloud BigQuery データ接続は、既定で米国の場所で構成されています。別の場所を使用する
場合は、データ接続のプロパティでこれを設定する必要があります。
• データ接続を編集します。
• [詳細設定] の下に [場所] という名前のプロパティを追加します。
• プロパティの値を使用する場所に設定します。
• [保存] をクリックします。
50
データスペース
51
データスペース
• データスペースは、データアセットの作成と保存に使用される Qlik Cloud テナントの管理領域です。データ アセット
は、目的に合ったテーブルのコレクションです。Qlik Cloud データサービス の主要な作業単位です。
• データスペースへのアクセスは、スペースへのメンバーシップによって決まります。データスペース内にあるデータアセット
へのアクセスは、スペースのメンバーに割り当てられたロールによって決まります。つまり、ユーザーは1つ目にデータス
ペースのメンバーである必要があり、2つ目に、データスペース内のデータアセットおよびリソースを作成、管理、またはモ
ニターするために必要な役割を持っている必要があります。また、データアセットを利用するロールを持つメンバーは、個
人用、共用、管理用のスペースでアプリケーションを構築するときに、データスペースからのデータアセットを使用すること
もできます。
• 分析に対応していないデータ アセットと分析に対応しているデータ アセットには、異なるスペースを使用することを
お勧めします。分析ユーザーを制限して、分析対応スペースからのみ消費するようにすることができます。
52
データスペースの管理
• データスペースを管理するには、テナント管理者、データ管理者、またはスペース所有者である必要があります。また、
[Can manage (管理可能)] ロールを持つデータスペースのメンバーもスペースを管理することができます。
• 注: データスペースを作成すると、自動的に [Is owner (所有者)] ロールが割り当てられます。ロールと権限の詳
細については、データスペースのロールと権限 を参照してください。
53
スペースの作成
• テナント管理者またはデータ管理者である場合は、管理コンソール または
データサービスのホームからデータスペースを作成できます。データスペースの作
成者ロールを持つ非管理者のユーザーの場合、データサービスのホームから
データスペースを作成できます。
• 次の手順を実行します。
- 以下のいずれかの操作を実行します。
• 管理コンソール の[スペース]セクションから、[新規作成]をクリックします。(図1)
• データサービスのホームの [データアセットの管理] タブで、 [新規追加] をクリックし、[データスペー
スの作成] を選択します。 (図2)
- [名前] と [説明] を入力します。
- [作成] をクリックします。
図1
図2
54
スペースの編集
• テナントまたはデータの管理者、データスペース所有者、または [Can manage (管理可能)] ロールを持つデータス
ペースのメンバーである場合は、データスペースを編集することができます。
• 次の手順を実行します。
- 以下のいずれかの操作を実行します。
• 管理コンソール の[スペース] セクションから [・・・] ボタン ボタンをクリックし、[編集]をクリックします。
• データサービスのホームの [データアセットの管理] タブで、[データスペース] を選択します。 [スペースの編集] をクリックします。
- [スペースの編集] ウィンドウで、名前と説明を変更します。
- [保存] をクリックします。
55
スペース所有者の変更
• テナント管理者およびデータ管理者のみがスペース所有者を変更することができます。これは、管理コンソール からの
み実行できます。
• 次の手順を実行します。
- 管理コンソール の[スペース]セクションから、[所有者の変更]をクリックします。
- [所有者の変更] ウィンドウで、ユーザー名、電子メール、件名、またはユーザーIDからユーザーを検索します。
- [適用] をクリックします。
56
データ スペースのメンバーとロールの追加と削除
• データ スペースが最初に作成されたとき、スペースを作成したユーザーのみがスペースのメンバーです。
• 他のユーザーがスペース内のデータ スペースとデータ アセットにアクセスできるようにするには、最初にメンバーをスペー
スに追加してから、スペースとスペース内のデータ アセットに対するアクセス許可をユーザーに付与するロールを割り当
てます。データ スペース メンバーを追加および削除したり、それらの役割を変更または削除したりできます。
• データ スペースのメンバーを追加または削除したり、メンバーのロールを編集したりするには、テナントまたはデータ管理
者、データ スペースの所有者、または [管理可能] なロールを持つデータ スペースのメンバーである必要があります。
データ スペースのメンバーに割り当てることができるさまざまな役割については、データスペースのロールと権限 を参照
してください。
57
データ スペースのメンバーとロールの追加と削除
• 次の手順を実行します。
- 以下のいずれかの操作を実行します。
• 管理コンソール の[スペース] セクションから 3 つのドット ボタン ボタンをクリックし、[メンバーの管理]をクリックします。
• データサービスのホームの [データアセットの管理] タブで、[データスペース] を選択します。 [詳細] をクリックし、[メンバー] をクリックします。
- [メンバーの追加] をクリックします。
- スペースに追加するユーザを検索します。
- 新規ユーザー用のロールを選択します。
- [メンバーの追加] をクリックします。
- メンバーを削除するには、[・・・]、[削除] の順にクリックします。
- メンバーのロールを変更するには、ドロップダウンメニューからロールを選択し、ロールを調整します。
58
データスペースのロールと権限
• データ スペースを作成すると、そのデータ スペース、およびそのスペース内のすべてのデータアセットおよびリソースの所
有者になります。スペース所有者、テナント管理者、およびデータ管理者は、データスペースにメンバーを追加すること
ができます。また、[Can manage (管理可能)] ロールを付与されたデータ スペースメンバーは、他のメンバーをス
ペースに追加することができます。データ スペースにメンバーを追加すると、そのメンバーにスペース内のロールを割り当
てることができます。スペースのロールは、データ スペースの権限のセット、およびスペース内のデータアセットとリソースに
よって定義されます。
• データアセットは、所有者のコンテキストに作用します。
- データアセットの所有者は、データアセットが存在するスペースでCan edit (編集可能)ロールを持っている必要があります。これに
より、テーブルメタデータを使用してカタログを更新でき、ストレージ アセットがスペース内にデータファイルを作成できるようにします。
- ランディング データ アセットの所有者は、Enterprise Manager リソースが存在するスペースで [消費可能] ロールを持っている
必要があります。これは、Qlik Enterprise Manager にアクセスするために必要です。
- ストレージ アセットの所有者は、 クラウド ランディング エリアへのデータ接続を含むスペースで、[Can consume (利用可能)]、
[Can edit (編集可能)]、または [Can manage (管理可能)] のロールを持っている必要があります。
59
データスペースのロール
• データ スペースのメンバーには、以下のデータ スペース ロールの1つ以上を割り当てることができます。
• メンバーがアプリケーションでデータアセットを使用するには、[Can consume (消費可能)」 ロールを所有している必
要があります。データ スペースのメンバーではないユーザーと共有されているデータスペースのデータアセットを使用する
アプリは、アプリデータを表示できますが、データソースは表示できません。
データ スペース ロール 概要
Is owner (所有者) このメンバーは、スペース、スペース内のすべてのデータアセットとデータリソース、およびそのメンバーを管理できます。
閲覧可能 このメンバーはデータ アセットとデータ リソースを表示できますが、変更を加えることはできません。
消費可能 このメンバーは、データ スペース内のデータアセットからデータを消費できます。
管理可能 このメンバーはスペースの詳細とメンバーの管理ができます。
操作可能 このメンバーは、基本的な詳細を含むデータ アセットを表示し、実行、停止、再開などのアクションを実行できます。
編集可能 このメンバーは、このスペースのデータ アセットの表示と編集だけでなく、新しいデータアセットを作成できます。
60
ロールと権限のマトリクス
• 以下ヘルプの表は、特定のロールを持つデータスペースのメンバーに付与される特定の権限の概要を示しています。
- データスペースのメンバーの権限
• 以下ヘルプの表は、データ スペース、データ スペース内のデータアセットおよびデータリソースに関して、特定のグローバ
ル ロールを持つProfessional ユーザーに付与される特定の権限の概要です。
- グローバルロールを持つユーザーの権限
61
DEMO
62
FAQ
63
FAQ
質問 回答
スペース間でデータアセットを移動したり、データア
セットの所有者を変更することは可能ですか?
現在、スペース間でのデータアセットの移動、所有者の変更はできません。
ランディングアセットにS3以外のBucketストレージを
使用することは可能でしょうか?
現在、AWS S3バケットの他、SnowflakeなどのクラウドDWHも利用可能です。
Qlik Enterprise ManagerとQlik Cloudの接続
には、組織のファイヤーウォールにポートを開く必要が
ありますか?
Enterprise ManagerとQlik Cloudプラットフォーム間の通信を確立するために、
ファイアウォールにポートを開く必要はありません。アウトバウンド通信は、Qlik
Enterprise Managerによって開始されます。
64
Q&A
65
その他の情報
66
オンラインでの技術情報提供
Qlik Japanプリセールスチームではオンラインの技術情報提供を推進しています。
セミナー トレーニング
LT形式のTips共有 技術イベント
67
直近の無料Webセミナー
68
Qlik Japanグループのフォローをお願いします
Tech Playのグループを
フォローいただくと、イ
ベント情報が届きます。
TECH PLAYのQlikコミュニティサイト:
https://techplay.jp/community/qlik
69
Webセミナー過去資料
Slideshareをご覧ください。 QlikPresalesJapan
フォローをお願い
します。
70
Webセミナー過去動画
YouTubeのプレイリストをご覧ください。
YouTube プレイリスト: TECH TALK
YouTube プレイリスト: Qlik Replicate 基礎から学ぶ勉強会
Qlik Japan Youtubeチャンネル
チャンネルの登録
をお願いします。
71
「Qlik Sense 参考書」好評発売中
Qlik Sense ユーザーのためのデータ分析実践バ
イブル
・判型:B5 変 ・総ページ数:~480 ページ程度
・予価本体:4,200円 (+税)
• QlikSpaceの記事をベースに、書籍用に大幅
にカスタマイズ&加筆
• 1 冊でQlik Sense の基本をマスターし(=
基本編)、ニーズの高い分析例(=応用
編)をできるだけ丁寧に紹介
72
その他の情報
セミナー動画・事例紹介
・デモ・新機能紹介
Qlik Japan Youtube Qlik Community Japan
製品・技術Q&A、製品関連資料
Qlik Showcase
日本語アプリの公開
Qlik Japan Blog
製品・技術情報の公開
Thank you!
74
Appendix
以降は、アセット作成やデータ利用の詳細手
順(Helpと同等の内容)
75
オンプレミスデータソー
スからのデータラン
ディング
76
オンプレミスデータソースからのデータランディング
• データ転送の最初のステップは、データのランディングです。これには、Qlik Replicate タスクを使用して、オンプレミス
データ ソースからランディング エリアにデータを継続的に転送することが含まれます。レプリケーションタスクは、Qlik
Cloud データサービスのデータ アセットのランディングによって制御されます。
• ランディング データ アセットを作成する前に:
- レプリケーションタスクの作成 で説明されているように Qlik Replicate タスクを作成する必要があります。
- Qlik Enterprise Manager と Qlik Cloud を接続するには、Enterprise Manager リソースを追加する必要があります。こ
れは、一度だけ実行する必要があるセットアップタスクです。
- また、Enterprise Manager リソースが存在するスペースで [消費可能] ロールを持っている必要があります。
• 注: タスクをランディングデータ アセットに関連付ける場合は、Qlik Replicate タスクを実行しないでください。ランディ
ング データ アセットを初めて実行すると、Qlik Replicate タスクが再開されます。タスクが以前に Qlik Replicate
から実行された場合、関連情報はすべて削除されて再作成されます。これには、ターゲット フォルダー、監査、ct テー
ブルのデータが含まれます。
77
オンプレミスデータソースからのデータランディング
• 2 種類のランディング エリアを使用できます。ランディング エリアは、Qlik Replicate タスクを作成するときに定義され
ます。
- Amazon S3: データを Amazon S3 バケットにランディングすると、それを使用して Qlik Cloud で分析の準備ができた QVD
テーブルを生成できます。
- クラウド データ ウェアハウス: データを Snowflake または Azure Synapse Analytics などのクラウド データ ウェアハウスにラン
ディングすると、同じクラウド データ ウェアハウスにテーブルを保存できます。
• 2 種類の異なるモードでデータをランディングできます。モードは、Qlik Replicate タスクの作成時に設定されます。ラ
ンディング データ アセットがカタログ化されると、モードの変更はできません。
- フル ロード & CDC: フル ロードでランディングを開始します。ランディング データは、CDC (データキャプチャの変更) テクノロジーを
使用すると、最新の状態が維持されます。CDC は、すべてのデータ ソースでサポートされていない可能性があります。
- フル ロードのみ: ランディングはソースからフルロードのみを実行します。これは、ソースが CDC をサポートしていない場合に役立ち
ますが、サポートされている任意のデータ ソースで使用できます。リロードを定期的にスケジュールできます。
• 注:ランディング モードは、[データ アセットの管理] のリスト ビューの [タスクの種類] 列に表示されます。
78
ランディングデータアセットの作成および設定
• データサービス ホームで [新規追加] をクリックし、[データ アセットの作成] を選択します。
• [データ アセットの作成] ダイアログで、次のように入力します:
- 名前: データ アセットのランディングの名前。
- スペース: データ アセットのランディングを作成するデータ スペース。
- アセット タイプ:[Qlik Replicate経由のランディング] を選択します。
• データサービス ホームでデータ アセットを簡単に検索できるようにタグを追加することができます。
• [開く] を選択して、作成されたときに、データ アセットのランディングを開きます。
• [作成] をクリックします。
• [Replicate タスクの選択] をクリックします。
• 使用する [Enterprise Manager リソース] を選択します。
79
ランディングデータアセットの作成および設定
• 使用するタスクを含む [Replicate サーバー] を選択します。特定のサーバまたは [すべて] を選択できます。サー
バーを選択すると、使用可能なレプリケーションタスクのリストが表示されます。
• 注] レプリケーションタスクが使用可能になるには、レプリケーションタスクの作成 での説明に従って作成されている必
要があります。
• レプリケーションタスクを選択します。
• [選択] をクリックします。
• [保存] をクリックします。
80
ランディングデータアセットの作成および設定
• データ アセットのクラウドランディングが作成され、データ アセットがまだカタログ化されていないことを示し、ステータスが
[Ready to run] になります。
• 次のいずれかを実行できます:
- レプリケーションを開始するデータ アセットのクラウドランディングを実行します。アセットもカタログ化されます。
- データ アセットのクラウドランディングをカタログ化します。これにより、データ転送を開始することなく、データ アセッ
トのクラウドランディングをストレージのデータ アセットのソースとして使用できるようになります。[カタログ] をクリック
して、データ アセットをカタログ化します。データ アセットをカタログ化した時点では、以下の変更を行うことはでき
ません。
• テーブルの選択やデータ アセットの構造に影響を与えるソースデータの変更。
• ターゲットフォルダの変更。
• ランディング モードを変更する、つまり CDC をオンまたはオフにします。
• このような変更を行うには、データ アセットと、それを使用して既にカタログ化されているすべてのアセットを再作成する
必要があります。
81
ランディングデータアセットの作成および設定
• アセットが保存およびカタログ化されると、ステータスに [実行する準備ができました] と表示され、アセットが正常にカタ
ログ化されたことが示されます。これで、次のことができます:
- データ アセットテーブルの構造とメタ データをプレビューします。[テーブル] をクリックします。
- データ アセットを実行して、レプリケーションタスクを開始します。[実行] をクリックします。
- このデータ アセットのランディングに基づいて、データ アセットのストレージを作成します。
• [フルロード & CDC] モードでは、ストレージデータ アセットはランディングエリアのデータを分析可能なテーブル
に変換します。
• [フル ロード] モードでは、データにアクセスするためのビューが作成されます。
- レプリケーションと変換は、データ アセットが実行されるまで開始されません。
82
フルロード&CDCでのランディングデータアセットの実行
• これで、データ アセットのランディングを実行できます。これにより、オンプレミスのデータ ソースからランディング エリアにデータを転送するレプ
リケーション タスクが開始されます。
- [実行] をクリックしてデータのランディングを開始します。
• これでレプリケーションが開始され、関連する Qlik Replicate タスクが実行されているはずです。この間、データ アセットのステータスは
[実行中] になります。まず、全データ ソースがコピーされ、次に変更が追跡されます。これは、変更が発見されたときに継続的に追跡お
よび転送されることを意味します。これにより、ランディング エリアのランディングデータが最新の状態に保たれます。
• データサービス ホームでは、ランディングデータの更新ステータス、日時およびエラーになったテーブルの数の確認ができます。また、データ
アセットを開き、[テーブル] タブを選択して、テーブルの基本的なメタデータ情報を確認することもできます。
• 進捗状況を詳細にモニターするには、Qlik Enterprise Manager でレプリケーションタスクを開き、[Monitor] ビューを選択します。
• すべてのテーブルがロードされ、最初の変更セットが処理されると、[Data is updated to (データ更新)] には、その時点までのソース
の変更がデータ アセットで利用可能であることを示します。
• Qlik Cloud Landing (Amazon S3) を使用すると、テーブルをリロードすると、全ロードの新しいコピーが作成されます。これは、ラン
ディングアプリが変更を問題なく読み取っている間にテーブルをリロードできることを意味します。
83
フルロードでのランディングデータアセットの実行
• ランディング データ アセットを使用して、データをロードできるようになりました。
- [データのロード] をクリックして、フル ロードを開始します。
• これでレプリケーションが開始され、関連する Qlik Replicate タスクが実行されているはずです。この間、データ アセットのステータスは
[実行中] になります。フル データ ソースがコピーされると、ステータスは完了になります。
• データサービス ホームでは、ランディングデータの更新ステータス、日時およびエラーになったテーブルの数の確認ができます。また、データ
アセットを開き、[テーブル] タブを選択して、テーブルの基本的なメタデータ情報を確認することもできます。
• 進捗状況を詳細にモニターするには、Qlik Enterprise Manager でレプリケーションタスクを開き、[モニター] ビューを選択します。
• すべてのテーブルがロードされると、[Data is updated to (データ更新)] には、その時点までのソースの変更がデータ アセットで利用
可能であることを示します。ただし、データ アセットの一部のテーブルは、ロードを開始した時期に応じて、後の時間に更新することができ
ます。これは、データの一貫性が保証されていないことを意味しています。例えば、08:00にロードを開始して4時間かかった場合、ロード
が完了すると、[Data is updated to (データ更新)] に 08:00 と表示されます。ただし、11:30 にリロードを開始したテーブルには、
08:00 から 11:30 の間に発生したソースの変更が含まれます。
• [Data is updated to (データ更新)] は、正常にロードされたテーブルのみを反映します。テーブルのリロードが失敗したことを示すもの
ではありません。クラウド ターゲットでは、すべてのテーブルにエラーが発生してリロードが完了した場合、項目は空になります。
84
フルロードのみ使用時のデータのリロード
• CDC を使わずにフルロードで使用する場合は、データ ソースに合わせてデータを再読み込みする必要があります。
- [リロード] をクリックして、データの手動リロードを実行します。
- スケジュールされたリロードを設定します。
• ランディング データ アセットがリロードされている間、ランディング データ アセットを消費するストレージ データ アセットの
ビューは使用できません。リロード中は、部分的なデータがロードされる可能性があるため、次の操作はお勧めしません。
- ストレージ データ アセットをクエリする。
- ストレージ データ アセットからデータをリロードする。
• ランディング データ アセットのリロードスケジュールを計画するときは、これを考慮してください。
85
ランディングデータアセットのリロードのスケジュール
• データ アセットのスペースで [操作可能] の役割がある場合は、ランディング データ アセットの定期的なリロードをスケ
ジュールできます。スケジュールをアクティブにするには、データ アセットのステータスが少なくとも [実行する準備ができ
ました] である必要があります。
- データ アセットが開いたら、[リロードのスケジュール] をクリックします。
• 注: スケジュールされたリロードが開始されようとしているときにデータ アセットがまだリロードされている場合、スケジュー
ルされたリロードは次のスケジュールされたリロード イベントまでスキップされます。
• 注: データ アセットのリロード スケジュールは 管理コンソール で監視できます。
86
ランディング データ アセットの操作
• アセットメニューから、ランディング データ アセットに対して次の操作を実行できます。
- 開く: これにより、ランディング データ アセットが開きます。テーブル構造とデータ アセットの詳細を表示できます。
- 編集: アセットの名前と説明を編集したり、タグを追加したりできます。
- 停止: データ アセットの操作を停止できます。これにより Replicate タスクが停止し、ランディングエリアは変更されたデータで更新
されません。リロード スケジュールのあるフル ロードのデータ アセットを停止すると、現在のリロードのみが停止されます。データ アセッ
トのステータスが 停止 の場合、またアクティブなリロード スケジュールがある場合、次のスケジュールされた時刻に再びリロードされま
す。スケジュールされたリロードを停止するには、スケジュールのリロード のリロード スケジュールをオフにする必要があります。
- 再開: データ アセットは停止したところから操作を再開できます。これにより、Replicate タスクの操作も再開されます。
- リロード: フル ロードモードで、データ アセットの手動リロードを実行できます。
- リロードのスケジュール: [フル ロード] モードで、ランディング データ アセットのスケジュールされたリロードを設定できます。月間、週
間、毎日、1 時間ごとのスケジュールを設定でき、カスタマイズも可能です。スケジュールされたリロードはオンまたはオフにすることも
できます。リロードをスケジュールするには、データ アセットのスペースで操作可能ロールを保持することが必要です。
- 削除: データ アセットを削除できます。次のオブジェクトは削除されないため、手動で削除する必要があります。
• ランディング エリアのデータ
• Qlik Enterprise Manager のレプリケーション タスク
87
ランディング データ アセットの操作
• タスクが [フル ロード&CDC] モードのときにテーブルのリロードを除いて、Qlik Enterprise Manager からタスクを
操作しないことをお勧めします。
88
Qlik Replicateタスクの[ターゲットのリロード]の操作
• [フル ロード & CDC] モードでデータ アセットをランディングさせるために、Qlik Replicate タスクで [ターゲットのリ
ロード] 操作を実行できます。データの損失を避けるために、このタスクから読み込まれたランディング データ アセットと
ストレージ データ アセットを削除して再作成する必要があります。
- Replicate タスクがまだ停止していない場合は、停止します。
- ランディング データ アセットとストレージ データ アセットを削除します。
- Qlik Enterprise Manager の [ターゲットのリロード] をクリックします。
- Replicate タスクを使用して新しいランディング データ アセットを作成します。
- ランディング データ アセットを使用する、新しいデータ アセットのストレージを作成します。
- 新しいデータ アセットのランディングの実行
- 新しいストレージ アセットを実行します。
- 注: Qlik Enterprise Manager の [フル ロード & CDC] Replicate タスクで [テーブルのリロード] を実行することもできます。
この場合、データ アセットを再作成する必要はありません。
89
ランディングエリアのメンテナンス
• ランディングエリアの自動クリーンアップはサポートされていません。これはパフォーマンスに影響する可能性があります。
• 古いフル ロードの手動クリーンアップを実行し、ランディング エリアのデータを変更することをお勧めします。
- Amazon S3: フルロードデータのフォルダが複数ある場合は、最新のフォルダを除くすべてを削除できます。処理された変更データ
パーティションを削除することもできます。
- クラウド データ ウェアハウス: 処理されたフル ロードと変更テーブル レコードを削除できます。
90
Qlik CloudとQlik
Enterprise
Managerの接続
オンプレミスデータソースからのデータラン
ディング
91
Qlik CloudとQlik Enterprise Managerの接続
• ランディングデータのレプリケーションタスクを制御できるようにするためには、Qlik Cloud と Qlik Enterprise
Manager を接続する必要があります。これは、一度だけ実行する必要があるセットアップタスクです。
• Qlik Enterprise Manager は、単一の Qlik Cloud テナントのみに接続できます。Qlik Cloud 内のリモート
Enterprise Manager リソースには、接続されている Enterprise Manager マシンに関する情報は一切含まれ
ていません。
• 接続は Enterprise Manager 側で開始されます。開始されると、チャネルは保護され、双方向になります。
92
Qlik CloudとQlik Enterprise Managerの接続
• これは、次の3つの手順で実行します。
- Enterprise Manager で登録キーを作成します。
• 注: これを行うには、Qlik Enterprise Manager の Enterprise Manager レベルの管理者権限が
必要です。
• 右上の Qlik Enterprise Manager メニューバー右上の[設定]アイコン をクリックします。
• [Qlik Cloud Connection] タブをクリックします。
• Qlik Cloud テナントのアドレスを入力します。 例: https://mytenant.qlikcloud.com
• [Create New Registration key] をクリックします。
• [View and Copy Registration key...] をクリックして、キーをコピーします。
- 登録キーを使用して、Qlik Cloud テナントにリモート Enterprise Manager リソースを作成します。
• 注: これを行うには、テナント管理者になる必要があります。テナント管理者でない場合は、テナント管理
者に依頼してリモート Enterprise Manager リソースを作成します。
• Qlik Cloud テナントで、データサービス ホームに移動します。ランチャーメニューで [データ サービス] をク
リックします。
93
Qlik CloudとQlik Enterprise Managerの接続
• これは、次の3つの手順で実行します。
- (続き)登録キーを使用して、Qlik Cloud テナントにリモート Enterprise Manager リソースを作成します。
• リソースのユーザーに[消費可能 (Can consume)]ロールが割り当てられたスペースに、リソースを登録する必要があります。
• ユーザーが [Can consume (消費可能)] ロールを持つ既存のスペースに移動するか、次を行います:
• [新規追加] をクリックして、 [データスペースの作成] を選択して、データスペースを作成します。スペースの名前を入力し、
[作成] をクリックします。リソースにアクセスする必要があるユーザーに、[Can consume (消費可能)] ロールを割り当てま
す。
• [データ リソース] をクリックします。
• [リモート Enterprise Manager リソースの追加] をクリックします。
• リソースの表示名と説明を入力します。
• 注: リソースが接続されている Enterprise Manager サーバーを識別できるように、リソースの名前と説明を選択すること
をお勧めします。リソースには Enterprise Manager サーバーを識別するその他の情報は含まれません。
• 登録キーを [登録キー] に貼り付けます。
• [作成] をクリックします。これで、リソースは Qlik Cloud に作成されましたが、Enterprise Manager で接続を確立する必
要があります。
94
Qlik CloudとQlik Enterprise Managerの接続
• これは、次の3つの手順で実行します。
- (続き) Enterprise Manager で接続を確立します。
• Enterprise Manager メニューバーで[設定] をクリックします。
• [Qlik Cloud Connection] タブをクリックします。
• [Connect] をクリックします。
95
Qlik CloudとQlik Enterprise Managerの接続
• これで、Enterprise Manager サーバーは Qlik Cloud テナントと接続されました。ダイアログに、[接続済み] ス
テータスが表示され、接続された Qlik Cloud テナントに関する情報が表示されます。
• Qlik Cloud テナントで接続を確認できます。Enterprise Manager リソースを作成したスペースで [データリソー
ス] にチェックします。作成したリソースのステータスが [接続済み] になります。
• 接続が確立されると、QlikQCSConnectionBroker という名前のユーザが Enterprise Manager 内に自動
的に作成されます。ユーザには Enterprise Manager レベルでの管理権限が付与されます。Qlik Cloud から
Enterprise Manager への要求はすべてこのユーザによって行われます。Enterprise Managerでこのユーザーの
権限を変更した場合、Qlik Cloudで失敗を引き起こす可能性があるため、推奨しません。
96
接続のトラブルシューティング
• 接続状態が 切断されました と表示されている場合:
- Enterprise Manager と Qlik Cloud の間のネットワーク接続が機能していることを確認します。
- Qlik Cloud テナントの Enterprise Manager リソースが有効になっていることを確認します。
- Qlik Cloud テナントへの接続が Enterprise Manager で有効になっていることを確認します。
• ネットワークが稼働し、リソースが有効になっていることが確認できたら、Qlik Enterprise Manager 設定の [Qlik
Cloud Services] タブにある [再試行] をクリックしてください。
• [再試行]をクリックしても [接続済み] にならない場合:
- Qlik Enterprise Manager 設定の [Qlik Cloud Services] タブにある 登録キー > 新規作成 をクリックします。
- [登録キーの確認とコピー...] をクリックして、キーをコピーします。
- Qlik Cloud に移動し、[データ リソース] でリソースを開きます。[登録キーの更新] をクリックしてキーを貼り付け、[更新] をクリッ
クします。
97
レプリケーションタスク
の作成
オンプレミスデータソースからのデータラン
ディング
98
レプリケーションタスクの作成
• レプリケーションタスクを作成して、オンプレミスのデータソースからクラウドのランディング領域にデータを継続的にランディ
ングする必要があります。Qlik Enterprise Manager でレプリケーション タスクを作成します。
• 開始する前に、すべてのソース データ要件が満たされていることを確認してください。ソースデータの要件については、
サポートされているデータ ソース を参照してください。
• どのランディング モードを使用するかを決定する必要もあります。
- フル ロードと変更の保存: フル ロードでランディングを開始します。ランディング データは、CDC (データキャプチャの変更) テクノロ
ジーを使用すると、最新の状態が維持されます。CDC は、すべてのデータ ソースでサポートされていない可能性があります。
- フル ロード: ランディングはソースからのみフル ロードを実行します。これは、ソースが CDC をサポートしていない場
合に役立ちますが、サポートされている任意のデータ ソースで使用できます。リロードを定期的にスケジュールでき
ます。
99
クラウド ランディング ターゲット
• 次のクラウド ランディング ターゲットがサポートされています。
• Qlik Cloud Landing (Amazon S3)
- このターゲットを使用すると、Qlik Cloud でQVD テーブルを生成できます。他のクラウド ターゲットにデータを配信することはできま
せん。
• Snowflake on AWS、Snowflake on Azure、Snowflake on Google
- これらのターゲットを使用してデータをランディングすると、テーブルとビューを Snowflake に配信できます。
• Microsoft Azure Synapse Analytics
- このターゲットを使用してデータをランディングすると、テーブルとビューを Azure Synapse Analytics に配信できます。
10
0
タスクの作成
• レプリケーション タスクは、Qlik Enterprise Manager で作成できます。
• [New Task] をクリックしてレプリケーションタスクを作成します。
• [New Task]ダイアログで、タスクの名前を与えます。
• Replication Profileに以下を設定します。
- Qlik Cloud Landing
• タスクを作成する Qlik Replicate サーバーを選択します。
• 使用するランディング モードを選択します。
- CDC 変更処理を使用する場合は、[Full Load] と [Store Changes] を選択します。
- フル ロードのみを使用する場合は、[Full Load] を選択します。
• [OK] をクリックしてタスクを作成します。
10
1
タスクの作成
• CDC で Qlik クラウド ランディング (Amazon S3) ターゲットを使用する場合のみこの手順を行います:
- 注: フルロードのみのタスクを作成する場合は、このステップをスキップします。
- [Task Settings] をクリックして、[Change Processing] > [Store Changes Settings] ページの順に選択します。
- [Change Data Partitioning] の設定を [オフ] から [...ごとに分割] に設定し、間隔を空けます。間隔は 15 分以上である必要があり
ます。[Change Data Partitioning] の次の設定では、既定値を維持する必要があります。
• Store Changes in
• [Change Table Settings] > [Suffix:]
• [Change Table Settings] > [Header column prefix:]
• Select Change Table Header Columns
- 完了したら、[OK] をクリックします。
• 既存のソース エンドポイントがある場合は、次のステップにスキップできます。それ以外の場合は、[Manage Endpoint
Connections...] をクリックし、[New Endpoint Connection] をクリックしてソース エンドポイントを作成する必要があります。[Test
Connection] をクリックすると、接続が行われていることを確認できます。完了したら、[Save] をクリックし、[Close] をクリックします。
10
2
タスクの作成
• ソース エンドポイントをタスクマップの上の円 (ここにソースエンドポイントをドロップしてください の文字) にドラッグします。
• [Manage Endpoint Connections...] をクリックし、[New Endpoint Connection] をクリックして、クラウドランディングエリアに
ターゲット エンドポイントを作成します。
• 接続の詳細を次に設定します:
- ロール: Target
- タイプ: Qlik Cloud Landing (Amazon S3)、Microsoft Azure Synapse Analytics、Snowflake on AWS、 Snowflake on
Azure、またはSnowflake on Google
- 注: 2 つの Qlik Replicate タスクをランディング エリア内の同じテーブルに書き込まないようお勧めします。ベスト プラクティスは、各 Qlik
Replicate タスクに個別のランディング エリアを使用することです。
10
3
タスクの作成
• クラウド ランディング エリアにアクセスするために必要な情報を追加します。これには、アクセス オプションと資格情報が含まれます。サポー
トされているターゲットの設定の詳細については、Qlik Replicate オンライン ヘルプの次のページを参照してください。
- Qlik クラウド ランディングをターゲットとして使用(英語のみ)
• [ターゲットフォルダ] を設定することで、データをコピーするフォルダを選択できます。別のレプリケーション タスクと同じフォルダを使用しないでく
ださい。
• 注: [データ暗号化] のデフォルトは Amazon S3-Managed Keys ですが、バケットが WS KMS-Managed Keys を使用する場合
は変更できます。
- AWS で Snowflake をターゲットとして使用(英語のみ)
- Azure で Snowflake をターゲットとして使用(英語のみ)
- Google で Snowflake をターゲットとして使用(英語のみ)
- Microsoft Azure Synapse Analytics をターゲットとして使用(英語のみ)
- [Test Connection] をクリックして、接続が行われていることを確認します。
- 完了したら、[Save] をクリックし、[Close] をクリックします。
• ターゲット エンドポイントをタスクマップの上の円 (ここにターゲット エンドポイントをドロップしてください の文字) にドラッグします。
10
4
タスクの作成
• [Table Selection...] をクリックして、クラウドランディングエリアに配置するテーブルを選択します。
• 完了したら [OK] をクリックします
- 注: タスクの実行時にソース テーブルと変更テーブルに適用されるグローバル変換を定義できます。次のグローバル変換はサポートされていません。
• 変更テーブルの名前を変更
• 変更テーブルの名前を変更 スキーマ
• [Save] をクリックしてレプリケーションタスクを保存します。
• これで、レプリケーションタスクが作成され、Qlik Cloudのデータアセットのランディングで使用できるようになりました。ランディング データ ア
セットの作成方法の詳細については、オンプレミス データ ソースからのデータのランディング を参照してください。
• 注: タスクをランディング データ アセットに関連付ける場合は、Qlik Replicate タスクを実行しないでください。ランディング データ アセッ
トを初めて実行すると、Qlik Replicate タスクが再開されます。タスクが以前に Qlik Replicate から実行された場合、関連情報はす
べて削除されて再作成されます。これには、ターゲット フォルダー、監査、ct テーブルのデータが含まれます。
10
5
クラウドデータソース
からのデータランディ
ング
10
6
クラウドデータソースからのデータランディング
• データ転送の最初のステップは、データのランディングです。これは、Qlik Cloudのデータ接続を使用して、クラウドデー
タソースからランディングエリアに継続的にデータを転送することです。
• ランディングエリアとしてAmazon S3バケットを必要とせず、直接Snowflakeにデータをランディングすることができま
す。ランディングはソースからのフルロードのみを実行しますが、定期的に再ロードをスケジュールすることができます。
10
7
ランディングデータアセットの作成と設定
• データサービスホームの[新規追加]をクリックし、[データアセットの作成]を選択します。
• データアセットの作成ダイアログで、以下を入力します。
- 名前: ランディングデータアセットの名前
- スペース: ランディングデータアセットを作成するデータスペース
- アセットタイプ: ランディング
- データサービスホームでデータアセットを見つけやすくするために、タグを追加することができます。[開く]を選択して、ランディングデー
タアセットを作成時に開きます。[作成]をクリックします。
• [ソースデータの選択]をクリックします。
10
8
ランディングデータアセットの作成と設定
• ソースデータのデータ接続を選択し、[次へ]をクリックします。左側のパネルにあるフィルターを使用して、接続のリストをソースの種類、ス
ペース、および所有者でフィルターすることができます。ソースデータへのデータ接続がまだない場合は、最初に接続を作成する必要があり
ます。
- [接続の追加]をクリックします。
- データソースを選択します。
- 接続の名前、データソースへのアドレス、認証情報、およびその他の必要な情報を入力します。これは、データソースの種類によっ
て異なります。詳細については、サポートされるQlik Cloudデータソースを参照し、データソースのリンクに従ってください。
- [接続のテスト]をクリックし、正しい情報を入力したことを確認します。
- [作成]をクリックします。
• データアセットに含めるテーブルを選択し、各テーブルから含めるフィールドを選択します。デフォルトでは、すべてのフィールドが選択されてい
ます。データ選択ダイアログは、データソースの種類によって異なるオプションを持つことがあります。データソースによっては、選択できるデー
タ量に制限があるものもあります。たとえば、データソースによっては、一度に1つのテーブルしか選択できないものもあります。その場合は、
手順7で選択ダイアログに戻り、さらにテーブルを追加することができます。データソースの詳細については、サポートされるQlik Cloudデー
タソースを参照し、データソースに進みます。準備ができたら、[終了]をクリックします。
10
9
ランディングデータアセットの作成と設定
• Landingのプロパティを設定します。Landing connectionでランディングエリアへの接続を選択します。ランディングエリアへのデータ接
続がない場合は、まず[+]をクリックして接続を作成する必要があります。データは以下のクラウドターゲットにデータを着地させることが
できます。
- Snowflake
• Data asset schemaをデータを保存するスキーマに設定します。デフォルトでは、Landing connectionで指定されたスキーマが使用
されます。テーブル名にプレフィックスを使用して、同じデータアセットスキーマを使用するデータアセット間の競合を解決します。自動生成
されたプレフィックスを維持するか、独自のプレフィックスを入力します。
• 注: [詳細設定]で、並行してロードするテーブルの最大数を設定することもできます。1から5までの値を設定することができます。
• 準備ができたら、[OK]をクリックします。
• 選択したデータアセットテーブルの構造とメタデータをプレビューします。データソースからさらにテーブルを追加する場合は、[テーブルの選
択]をクリックします。
• 注: データアセットで既に選択されているテーブルは表示されません。再度選択すると、重複して追加されます。
• 準備ができたら、[保存] をクリックします。
11
0
ランディングデータアセットの作成と設定
• [カタログ]をクリックして、データアセットをカタログ化します。これにより、データ転送を開始することなく、クラウドランディ
ングデータアセットをストレージデータアセットのソースとして利用できるようになります。
• 注: データアセットをカタログ化すると、テーブルの選択やデータアセットの構造に影響を与えるようなソースデータの変
更を行うことができなくなります。このような変更を行うには、データ アセットとそれを消費するすべてのアセット(すでに
カタログ化されているもの)を再作成する必要があります。
11
1
ランディングデータアセットの作成と設定
• アセットが保存され、カタログ化されると、ステータスにReady to runと表示され、アセットが正常にカタログ化されたこ
とが示されます。これで、以下のことが可能になります。
- データ アセット テーブルの構造とメタデータをプレビューする。[テーブル]をクリックします。
- データ アセットを実行して、データのロードを開始します。[ロード]をクリックします。
- 定期的な再読み込みをスケジュールする。[リロードのスケジュール]をクリックします。
- このランディングデータアセットを基に、ストレージデータアセットを作成します。ストレージデータアセットは、ランディング領域のデータを
分析に適したテーブルとビューに変換します。ストレージデータアセットが実行されるまで、レプリケーションと変換は開始されません。
[ストレージデータアセットの作成]をクリックします。
11
2
サポートされるQlik Cloudデータソース
• 以下のQlik Cloudデータソースに対応しています。
11
3
データ アセットのランディングの実行
• ランディングデータアセットを使ってデータを読み込むことができます。
- [ロード]をクリックして、フルロードを開始します。
• レプリケーションが開始され、関連するQlik Replicateタスクが実行されます。この間、データアセットのステータスは実行中となります。
データソース全体がコピーされると、ステータスはCompletedになります。
• データサービスホームでは、ステータス、ランディングデータが更新された日時、エラーとなったテーブルの数を確認することができます。また、
データアセットを開いて[テーブル]タブを選択すると、テーブルの基本的なメタデータ情報を表示することができます。
• すべてのテーブルが読み込まれると、データアセットカードの「Data is updated to」は、その時点までのソースの変更がデータアセットで
利用可能であることを示します。ただし、データアセットの一部のテーブルは、読み込みを開始した時刻によって、それ以降の時刻に更新
されることがあります。つまり、データの整合性は保証されません。例えば、08:00にロードを開始し、4時間かかった場合、Data is
updated to はロードが完了した時点で08:00を表示します。しかし、11:30にリロードを開始したテーブルには、08:00から11:30ま
での間に発生したソースの変更が含まれます。
• “Data is updated to ”は、読み込みに成功したテーブルのみ反映されます。リロードに失敗したテーブルについては、何も表示されま
せん。クラウドターゲットでは、すべてのテーブルがエラーでリロードが完了した場合、このフィールドは空になります。
11
4
データのリロード
• データをリロードして、データソースを最新の状態に保つ必要があります。
- [リロード]をクリックすると、データの手動リロードが実行されます。
- スケジュールされたリロードを設定できます。
• ランディングデータアセットを消費するストレージデータアセットのビューは、ランディングデータアセットがリロードされている間は使用できませ
ん。リロード中は、データが部分的にロードされる可能性があるため、次の操作は推奨されません。
- ストレージデータアセットにクエリを投げる
- ストレージデータアセットからデータをリロードする
• ランディングデータアセットのリロードスケジュールを計画するときに、上記を考慮してください。
• ランディングデータアセットのリロードスケジュール
• データアセットのスペースで[Can operate (操作可能)]ロールがある場合、ランディングデータアセットの定期的なリロードをスケジュー
ルできます。スケジュールを有効にするには、データアセットのステータスが少なくとも [実行準備完了] である必要があります。
- データ アセットが開かれているときに、[リロードのスケジュール] をクリックします。
• 注: スケジュールされた再読み込みが開始されようとしているときにデータ資産がまだ再読み込み中である場合、スケジュールされた再読
み込みは次のスケジュールされた再読み込みイベントまでスキップされます。
11
5
ランディングデータアセットに対する操作
• ランディングデータアセットに対して、アセットメニューから以下の操作を行うことができます。
- 開く: ランディングデータアセットを開きます。テーブルの構造やデータアセットの詳細を見ることができます。
- 編集: アセット名や説明文を編集したり、タグを追加したりすることができます。
- 停止: データアセットの操作を停止することができます。これにより、ランディングエリアが変更されたデータで更新されなくなります。リ
ロードスケジュールのあるデータアセットを停止すると、現在のリロードだけが停止されます。データアセットのステータスが”停止”で、ア
クティブなリロードスケジュールがある場合、次のスケジュール時刻に再びリロードが行われます。スケジュールされたリロードを停止す
るには、[リロードのスケジュール]でリロードのスケジュールをオフにする必要があります。
- レジューム: データアセットの操作を停止したところから再開することができます。
- リロード: フルロード専用モードで、データアセットを手動でリロードすることができます。
- 削除: データアセットを削除することができます。ランディングエリアのデータは削除されませんので、手動で削除する必要があります。
11
6
ランディングエリアのメンテナンス
• ランディングエリアの自動クリーンアップには対応していません。これはパフォーマンスに影響を与える可能性があります。
• ランディングエリア内の古いフルロードデータは、手動でクリーンアップすることをお勧めします。
11
7
ストレージデータアセッ
トの作成
11
8
テーブルの生成と保存
• ストレージデータアセットを使用してテーブルを生成できます。ストレージデータアセットは、ランディングデータアセットによってクラウドランディ
ングエリアにランディングされたデータを消費します。生成したテーブルを例えば、分析アプリで使用できます。
• ランディングデータアセットを選択して、使用するランディングデータを定義します。ランディングデータアセット内のテーブルの部分選択をする
ことはできません。
- Qlik Replicate を介してデータを Amazon S3 バケットにランディングした場合は、Qlik Cloud に管理されているストレージまたは自分が
管理している Amazon S3 ストレージに QVDテーブルを生成できます。
- Qlik Replicate を介して Snowflake や Azure Synapse Analytics などのクラウドデータウェアハウスにデータをランディングした場合は、
同じクラウドデータウェアハウスにテーブルを生成できます。
• ランディングデータアセットはカタログ化されている必要があります。つまり、次のステートのデータアセットは使用できません。
- New
- アセットがカタログ化されていない [Ready to run]
• ストレージデータアセットは、消費されたランディングデータアセットと同じ操作モード ([フル ロード] または [フル ロード & CDC]) を使用
します。構成プロパティは、2つの操作モード間、および監視オプションと制御オプションで異なります。フルロードのみでクラウドターゲットラ
ンディングデータアセットを使用する場合、ストレージデータアセットは、物理テーブルを生成する代わりに、ランディングテーブルへのビューを
作成します。
11
9
変更処理を使用したラン
ディングデータアセットか
らのQVDストレージ
データアセットの作成
12
0
QVDストレージデータアセットを変更処理で作成
• データサービス ホームでストレージデータアセットを作成します。ストレージデータアセットは、Amazon S3 バケットからデータをピックアップ
し、QVD テーブルに変換して保存します。テーブルは、Qlik Cloud が管理するストレージや自分が管理するストレージに保存すること
ができます。データは、オンプレミスのデータソースから継続的に更新されます。
- Data Integration ホーム で [新規追加] をクリックし、[データアセットの作成] を選択します。
- [データアセットの作成] ダイアログで、次のフィールドに入力します:
• 名前:データアセットの名前。
• スペース:データアセットの保存先スペースを指定します。
• アセット タイプ:ストレージ (QVD) を選択します。
• [開く] を選択して、作成されたときに、データアセットを開きます。
- 準備ができたら、[作成] をクリックします。
- [ソース データの選択] をクリックします。
- ストレージデータアセットのソースとして使用するランディングデータアセットを選択し、 [選択] をクリックします。タスク タイプが [フル
ロード + CDC] の Amazon S3 ランディング データ アセットを選択します。タスク タイプがリスト ビューに表示されます。[ソースと
ストレージの設定] ダイアログが表示されます。
12
1
QVDストレージデータアセットを変更処理で作成
• (続き)
- ソース: ランディングデータアセットで使用する Amazon S3 バケットへのデータ接続を選択します。これは、Replicate タスクの対
象エンドポイントで定義されているバケットと同じです。接続は、Qlik Cloud テナントからの読み取りアクセスを使用する必要があり
ます。データ接続が無い場合、作成する必要があります。詳細については、[Amazon S3(英語のみ)] を参照してください。
- ストレージ: QVD テーブルを保存する場所を選択します。
• Qlik マネージドストレージ
• クライアントマネージドストレージ: 自分で管理する Amazon S3 に QVD テーブルを保存することができます。ストレージに使
用する Amazon S3 バケットへのデータ接続を選択します。接続は、Qlik Cloud テナントからの書き込みアクセスを使用する
必要があります。データ接続が無い場合、作成する必要があります。詳細については、[Amazon S3(英語のみ)] を参照して
ください。
- 使用するフォルダ: QVD テーブルを保存する時に使用するフォルダーを選択します。フォルダが存在しない場合は、データ アセット
を実行したときに作成されます。[ルート] を選択すると、QVD テーブルをバケットのルートに保存できます。[顧客管理ストレージ]
を選択した場合、フォルダ名は Amazon S3 の命名ガイドラインに従って有効である必要があります。
• 注: 別のデータ アセットと同じフォルダを使用しないでください。これにより、2 つのデータ アセットが相互に QVD テーブルを上書
きする可能性があります。
12
2
QVDストレージデータアセットを変更処理で作成
• (続き)
- [OK] をクリックして設定を確認します。QVD テーブルの生成を開始する前に、テーブルの構造をプレビューできます。
- [保存] をクリックしてデータアセットを保存します。
- [実行] をクリックしてQVD テーブルの生成を開始します。
• 実行中のデータアセットのランディングを使用して、既にランディングデータのフルロードを実行している場合、QVDテーブルが生成されます。
• 注: 各テーブルに最初のバッチを実行すると、行の更新時刻を含む 「タイムスタンプ」 という名前の新しいカラムがテーブルに追加されます。
• 初回のロードが完了する前の変更バッチがある場合は、初回のロードが完了して変更の最初のバッチが適用されるまで、アセットカード内
のデータは更新されません。
• 例えば、100 万件の注文を含む注文テーブルと 1,000 万件の注文詳細を含む注文詳細テーブルを含むデータ アセットをロードするとし
ます。テーブルは、フルロードを実行するのにそれぞれ 10 分と 20 分かかります。注文テーブルが最初にロードされ、次に注文の詳細が
ロードされます。注文テーブルのロード中に、新しい注文が挿入されました。そのため、注文の詳細がロードされると、注文テーブルにまだ存
在しない新しい注文の詳細が含まれている可能性があります。変更の最初のバッチが適用された後でのみ、注文と注文テーブルが同期さ
れ、同じ時間に完全に更新されます。
• QVD テーブルは Qlik Sense ハブの [カタログ] の下にあります。データセットを表示するには、[タイプ] の [データ] を選択します。
12
3
テーブルの生成のモニタリング
• [モニター] をクリックすると、テーブルの生成のステータスと進行状況を監視することができます。最初のロードが実行されているときは、[フ
ル ロード ステータス] で進行状況を表示できます。変更が処理されると、[変更の最後のバッチ] のステータスと進行状況を表示すること
もできます。
• 各テーブルまたは変更について、次の詳細を表示できます。
- 状態: これは、このテーブルまたは変更の現在の状態を示しています。
• 完了 - ロードまたは変更が正常に完了しました。
• ロード中 - テーブルまたは変更が処理されています。
• キューに登録済み - テーブルまたは変更が処理されるのを待機しています
• エラー - テーブルまたは変更の処理中にエラーが発生しました。
- 開始: ロードまたは変更処理が開始された時間。
- 終了: ロードまたは変更処理が終了した時間。
- 期間: hh:mm:ss の形式でのロードまたは変更処理の期間。
- 処理済みレコード: ロードまたは変更で処理されたレコードの数。
- スループット (記録/秒): ロードが完了するまで、スループットは更新されません。
- メッセージ: ロードまたは変更が正常に処理されなかった場合にエラー メッセージを表示します。
Hybrid Data Deliveryを活用してオンプレミスデータをQlik Cloudでリアルタイム活用!
Hybrid Data Deliveryを活用してオンプレミスデータをQlik Cloudでリアルタイム活用!
Hybrid Data Deliveryを活用してオンプレミスデータをQlik Cloudでリアルタイム活用!
Hybrid Data Deliveryを活用してオンプレミスデータをQlik Cloudでリアルタイム活用!
Hybrid Data Deliveryを活用してオンプレミスデータをQlik Cloudでリアルタイム活用!
Hybrid Data Deliveryを活用してオンプレミスデータをQlik Cloudでリアルタイム活用!
Hybrid Data Deliveryを活用してオンプレミスデータをQlik Cloudでリアルタイム活用!
Hybrid Data Deliveryを活用してオンプレミスデータをQlik Cloudでリアルタイム活用!
Hybrid Data Deliveryを活用してオンプレミスデータをQlik Cloudでリアルタイム活用!
Hybrid Data Deliveryを活用してオンプレミスデータをQlik Cloudでリアルタイム活用!
Hybrid Data Deliveryを活用してオンプレミスデータをQlik Cloudでリアルタイム活用!
Hybrid Data Deliveryを活用してオンプレミスデータをQlik Cloudでリアルタイム活用!
Hybrid Data Deliveryを活用してオンプレミスデータをQlik Cloudでリアルタイム活用!
Hybrid Data Deliveryを活用してオンプレミスデータをQlik Cloudでリアルタイム活用!
Hybrid Data Deliveryを活用してオンプレミスデータをQlik Cloudでリアルタイム活用!
Hybrid Data Deliveryを活用してオンプレミスデータをQlik Cloudでリアルタイム活用!
Hybrid Data Deliveryを活用してオンプレミスデータをQlik Cloudでリアルタイム活用!
Hybrid Data Deliveryを活用してオンプレミスデータをQlik Cloudでリアルタイム活用!
Hybrid Data Deliveryを活用してオンプレミスデータをQlik Cloudでリアルタイム活用!
Hybrid Data Deliveryを活用してオンプレミスデータをQlik Cloudでリアルタイム活用!
Hybrid Data Deliveryを活用してオンプレミスデータをQlik Cloudでリアルタイム活用!
Hybrid Data Deliveryを活用してオンプレミスデータをQlik Cloudでリアルタイム活用!
Hybrid Data Deliveryを活用してオンプレミスデータをQlik Cloudでリアルタイム活用!
Hybrid Data Deliveryを活用してオンプレミスデータをQlik Cloudでリアルタイム活用!
Hybrid Data Deliveryを活用してオンプレミスデータをQlik Cloudでリアルタイム活用!
Hybrid Data Deliveryを活用してオンプレミスデータをQlik Cloudでリアルタイム活用!
Hybrid Data Deliveryを活用してオンプレミスデータをQlik Cloudでリアルタイム活用!
Hybrid Data Deliveryを活用してオンプレミスデータをQlik Cloudでリアルタイム活用!
Hybrid Data Deliveryを活用してオンプレミスデータをQlik Cloudでリアルタイム活用!
Hybrid Data Deliveryを活用してオンプレミスデータをQlik Cloudでリアルタイム活用!
Hybrid Data Deliveryを活用してオンプレミスデータをQlik Cloudでリアルタイム活用!
Hybrid Data Deliveryを活用してオンプレミスデータをQlik Cloudでリアルタイム活用!
Hybrid Data Deliveryを活用してオンプレミスデータをQlik Cloudでリアルタイム活用!
Hybrid Data Deliveryを活用してオンプレミスデータをQlik Cloudでリアルタイム活用!
Hybrid Data Deliveryを活用してオンプレミスデータをQlik Cloudでリアルタイム活用!
Hybrid Data Deliveryを活用してオンプレミスデータをQlik Cloudでリアルタイム活用!
Hybrid Data Deliveryを活用してオンプレミスデータをQlik Cloudでリアルタイム活用!
Hybrid Data Deliveryを活用してオンプレミスデータをQlik Cloudでリアルタイム活用!
Hybrid Data Deliveryを活用してオンプレミスデータをQlik Cloudでリアルタイム活用!
Hybrid Data Deliveryを活用してオンプレミスデータをQlik Cloudでリアルタイム活用!
Hybrid Data Deliveryを活用してオンプレミスデータをQlik Cloudでリアルタイム活用!
Hybrid Data Deliveryを活用してオンプレミスデータをQlik Cloudでリアルタイム活用!
Hybrid Data Deliveryを活用してオンプレミスデータをQlik Cloudでリアルタイム活用!
Hybrid Data Deliveryを活用してオンプレミスデータをQlik Cloudでリアルタイム活用!
Hybrid Data Deliveryを活用してオンプレミスデータをQlik Cloudでリアルタイム活用!
Hybrid Data Deliveryを活用してオンプレミスデータをQlik Cloudでリアルタイム活用!
Hybrid Data Deliveryを活用してオンプレミスデータをQlik Cloudでリアルタイム活用!
Hybrid Data Deliveryを活用してオンプレミスデータをQlik Cloudでリアルタイム活用!
Hybrid Data Deliveryを活用してオンプレミスデータをQlik Cloudでリアルタイム活用!
Hybrid Data Deliveryを活用してオンプレミスデータをQlik Cloudでリアルタイム活用!
Hybrid Data Deliveryを活用してオンプレミスデータをQlik Cloudでリアルタイム活用!
Hybrid Data Deliveryを活用してオンプレミスデータをQlik Cloudでリアルタイム活用!
Hybrid Data Deliveryを活用してオンプレミスデータをQlik Cloudでリアルタイム活用!
Hybrid Data Deliveryを活用してオンプレミスデータをQlik Cloudでリアルタイム活用!
Hybrid Data Deliveryを活用してオンプレミスデータをQlik Cloudでリアルタイム活用!

Contenu connexe

Tendances

Qlik What's New - May 2023 リリースの新機能のご紹介
Qlik What's New - May 2023 リリースの新機能のご紹介Qlik What's New - May 2023 リリースの新機能のご紹介
Qlik What's New - May 2023 リリースの新機能のご紹介QlikPresalesJapan
 
TECHTALK 20200728 クラウド/SaaS版Qlik Senseをフル活用するためのポイント講座
TECHTALK 20200728 クラウド/SaaS版Qlik Senseをフル活用するためのポイント講座TECHTALK 20200728 クラウド/SaaS版Qlik Senseをフル活用するためのポイント講座
TECHTALK 20200728 クラウド/SaaS版Qlik Senseをフル活用するためのポイント講座QlikPresalesJapan
 
TECHTALK 20210406 Qlik Sense Enterprise SaaS 管理者向けセッション
TECHTALK 20210406 Qlik Sense Enterprise SaaS 管理者向けセッションTECHTALK 20210406 Qlik Sense Enterprise SaaS 管理者向けセッション
TECHTALK 20210406 Qlik Sense Enterprise SaaS 管理者向けセッションQlikPresalesJapan
 
Qlik Sense Extension開発 - Extensionの概要から実際の開発詳細まで
Qlik Sense Extension開発 - Extensionの概要から実際の開発詳細までQlik Sense Extension開発 - Extensionの概要から実際の開発詳細まで
Qlik Sense Extension開発 - Extensionの概要から実際の開発詳細までQlikPresalesJapan
 
Qlik Application Automation - ブロックで自動化処理をノーコード開発
Qlik Application Automation - ブロックで自動化処理をノーコード開発Qlik Application Automation - ブロックで自動化処理をノーコード開発
Qlik Application Automation - ブロックで自動化処理をノーコード開発QlikPresalesJapan
 
Qlik Sense SaaSのオンボーディング
Qlik Sense SaaSのオンボーディングQlik Sense SaaSのオンボーディング
Qlik Sense SaaSのオンボーディングQlikPresalesJapan
 
TECHTALK 20200923 Qlik Sense+Qlik NPrinting でセルフサービスBIから定型帳票の配信までをカバー
TECHTALK 20200923 Qlik Sense+Qlik NPrinting でセルフサービスBIから定型帳票の配信までをカバーTECHTALK 20200923 Qlik Sense+Qlik NPrinting でセルフサービスBIから定型帳票の配信までをカバー
TECHTALK 20200923 Qlik Sense+Qlik NPrinting でセルフサービスBIから定型帳票の配信までをカバーQlikPresalesJapan
 
TECH TALK 2021/11/02 Qlik view vs qlik sense ~ 違いと移行のポイント解説
TECH TALK 2021/11/02 Qlik view vs qlik sense ~ 違いと移行のポイント解説TECH TALK 2021/11/02 Qlik view vs qlik sense ~ 違いと移行のポイント解説
TECH TALK 2021/11/02 Qlik view vs qlik sense ~ 違いと移行のポイント解説QlikPresalesJapan
 
Qlik Cloud データカタログ機能のご紹介
Qlik Cloud データカタログ機能のご紹介Qlik Cloud データカタログ機能のご紹介
Qlik Cloud データカタログ機能のご紹介QlikPresalesJapan
 
Qlik Sense SaaSでソフトウェア開発ライフサイクルを活用
Qlik Sense SaaSでソフトウェア開発ライフサイクルを活用Qlik Sense SaaSでソフトウェア開発ライフサイクルを活用
Qlik Sense SaaSでソフトウェア開発ライフサイクルを活用QlikPresalesJapan
 
2021年10月26日 Qlik Sense SaaS vs Client Managed徹底比較
2021年10月26日  Qlik Sense SaaS  vs Client Managed徹底比較2021年10月26日  Qlik Sense SaaS  vs Client Managed徹底比較
2021年10月26日 Qlik Sense SaaS vs Client Managed徹底比較QlikPresalesJapan
 
2022年3月15日 Qlik Tips Qlik特有のデータ型「Dual値」の詳細
2022年3月15日 Qlik Tips Qlik特有のデータ型「Dual値」の詳細2022年3月15日 Qlik Tips Qlik特有のデータ型「Dual値」の詳細
2022年3月15日 Qlik Tips Qlik特有のデータ型「Dual値」の詳細QlikPresalesJapan
 
TECHTALK 20200908 Qlikデータ統合製品によるリアルタイム分析と DWH/ データレイク自動化
TECHTALK 20200908 Qlikデータ統合製品によるリアルタイム分析と DWH/ データレイク自動化TECHTALK 20200908 Qlikデータ統合製品によるリアルタイム分析と DWH/ データレイク自動化
TECHTALK 20200908 Qlikデータ統合製品によるリアルタイム分析と DWH/ データレイク自動化QlikPresalesJapan
 
Qlik Alerting で実現する Qlik Sense Enterprise Client-managed (Windows版) の高度でインテリジ...
Qlik Alerting で実現する Qlik Sense Enterprise Client-managed (Windows版) の高度でインテリジ...Qlik Alerting で実現する Qlik Sense Enterprise Client-managed (Windows版) の高度でインテリジ...
Qlik Alerting で実現する Qlik Sense Enterprise Client-managed (Windows版) の高度でインテリジ...QlikPresalesJapan
 
詳説 Qlik Sense GeoOperations – Qlik Sense SaaSで地理データを計算する
詳説 Qlik Sense GeoOperations – Qlik Sense SaaSで地理データを計算する詳説 Qlik Sense GeoOperations – Qlik Sense SaaSで地理データを計算する
詳説 Qlik Sense GeoOperations – Qlik Sense SaaSで地理データを計算するQlikPresalesJapan
 
Qlik Application Automation ~ テンプレートで素早く自動化フローを作成
Qlik Application Automation ~ テンプレートで素早く自動化フローを作成Qlik Application Automation ~ テンプレートで素早く自動化フローを作成
Qlik Application Automation ~ テンプレートで素早く自動化フローを作成QlikPresalesJapan
 
Qlik Sense マッシュアップ開発 - SaaS版とWindows版でJWTによる認証
Qlik Sense マッシュアップ開発 - SaaS版とWindows版でJWTによる認証Qlik Sense マッシュアップ開発 - SaaS版とWindows版でJWTによる認証
Qlik Sense マッシュアップ開発 - SaaS版とWindows版でJWTによる認証QlikPresalesJapan
 
TECH TALK 2021/08/10 一歩進んだQlikアプリの開発~Qlik専用QVDファイルでシステムの効率アップ
TECH TALK 2021/08/10 一歩進んだQlikアプリの開発~Qlik専用QVDファイルでシステムの効率アップTECH TALK 2021/08/10 一歩進んだQlikアプリの開発~Qlik専用QVDファイルでシステムの効率アップ
TECH TALK 2021/08/10 一歩進んだQlikアプリの開発~Qlik専用QVDファイルでシステムの効率アップQlikPresalesJapan
 
Qlik TECH TALK 新しい編集モード New Authoring Experienceのご紹介
Qlik TECH TALK 新しい編集モード New Authoring Experienceのご紹介Qlik TECH TALK 新しい編集モード New Authoring Experienceのご紹介
Qlik TECH TALK 新しい編集モード New Authoring Experienceのご紹介QlikPresalesJapan
 
Qlik Senseを使ったSAP ECCとSAP S4 HANAのデータ分析
Qlik Senseを使ったSAP ECCとSAP S4 HANAのデータ分析Qlik Senseを使ったSAP ECCとSAP S4 HANAのデータ分析
Qlik Senseを使ったSAP ECCとSAP S4 HANAのデータ分析QlikPresalesJapan
 

Tendances (20)

Qlik What's New - May 2023 リリースの新機能のご紹介
Qlik What's New - May 2023 リリースの新機能のご紹介Qlik What's New - May 2023 リリースの新機能のご紹介
Qlik What's New - May 2023 リリースの新機能のご紹介
 
TECHTALK 20200728 クラウド/SaaS版Qlik Senseをフル活用するためのポイント講座
TECHTALK 20200728 クラウド/SaaS版Qlik Senseをフル活用するためのポイント講座TECHTALK 20200728 クラウド/SaaS版Qlik Senseをフル活用するためのポイント講座
TECHTALK 20200728 クラウド/SaaS版Qlik Senseをフル活用するためのポイント講座
 
TECHTALK 20210406 Qlik Sense Enterprise SaaS 管理者向けセッション
TECHTALK 20210406 Qlik Sense Enterprise SaaS 管理者向けセッションTECHTALK 20210406 Qlik Sense Enterprise SaaS 管理者向けセッション
TECHTALK 20210406 Qlik Sense Enterprise SaaS 管理者向けセッション
 
Qlik Sense Extension開発 - Extensionの概要から実際の開発詳細まで
Qlik Sense Extension開発 - Extensionの概要から実際の開発詳細までQlik Sense Extension開発 - Extensionの概要から実際の開発詳細まで
Qlik Sense Extension開発 - Extensionの概要から実際の開発詳細まで
 
Qlik Application Automation - ブロックで自動化処理をノーコード開発
Qlik Application Automation - ブロックで自動化処理をノーコード開発Qlik Application Automation - ブロックで自動化処理をノーコード開発
Qlik Application Automation - ブロックで自動化処理をノーコード開発
 
Qlik Sense SaaSのオンボーディング
Qlik Sense SaaSのオンボーディングQlik Sense SaaSのオンボーディング
Qlik Sense SaaSのオンボーディング
 
TECHTALK 20200923 Qlik Sense+Qlik NPrinting でセルフサービスBIから定型帳票の配信までをカバー
TECHTALK 20200923 Qlik Sense+Qlik NPrinting でセルフサービスBIから定型帳票の配信までをカバーTECHTALK 20200923 Qlik Sense+Qlik NPrinting でセルフサービスBIから定型帳票の配信までをカバー
TECHTALK 20200923 Qlik Sense+Qlik NPrinting でセルフサービスBIから定型帳票の配信までをカバー
 
TECH TALK 2021/11/02 Qlik view vs qlik sense ~ 違いと移行のポイント解説
TECH TALK 2021/11/02 Qlik view vs qlik sense ~ 違いと移行のポイント解説TECH TALK 2021/11/02 Qlik view vs qlik sense ~ 違いと移行のポイント解説
TECH TALK 2021/11/02 Qlik view vs qlik sense ~ 違いと移行のポイント解説
 
Qlik Cloud データカタログ機能のご紹介
Qlik Cloud データカタログ機能のご紹介Qlik Cloud データカタログ機能のご紹介
Qlik Cloud データカタログ機能のご紹介
 
Qlik Sense SaaSでソフトウェア開発ライフサイクルを活用
Qlik Sense SaaSでソフトウェア開発ライフサイクルを活用Qlik Sense SaaSでソフトウェア開発ライフサイクルを活用
Qlik Sense SaaSでソフトウェア開発ライフサイクルを活用
 
2021年10月26日 Qlik Sense SaaS vs Client Managed徹底比較
2021年10月26日  Qlik Sense SaaS  vs Client Managed徹底比較2021年10月26日  Qlik Sense SaaS  vs Client Managed徹底比較
2021年10月26日 Qlik Sense SaaS vs Client Managed徹底比較
 
2022年3月15日 Qlik Tips Qlik特有のデータ型「Dual値」の詳細
2022年3月15日 Qlik Tips Qlik特有のデータ型「Dual値」の詳細2022年3月15日 Qlik Tips Qlik特有のデータ型「Dual値」の詳細
2022年3月15日 Qlik Tips Qlik特有のデータ型「Dual値」の詳細
 
TECHTALK 20200908 Qlikデータ統合製品によるリアルタイム分析と DWH/ データレイク自動化
TECHTALK 20200908 Qlikデータ統合製品によるリアルタイム分析と DWH/ データレイク自動化TECHTALK 20200908 Qlikデータ統合製品によるリアルタイム分析と DWH/ データレイク自動化
TECHTALK 20200908 Qlikデータ統合製品によるリアルタイム分析と DWH/ データレイク自動化
 
Qlik Alerting で実現する Qlik Sense Enterprise Client-managed (Windows版) の高度でインテリジ...
Qlik Alerting で実現する Qlik Sense Enterprise Client-managed (Windows版) の高度でインテリジ...Qlik Alerting で実現する Qlik Sense Enterprise Client-managed (Windows版) の高度でインテリジ...
Qlik Alerting で実現する Qlik Sense Enterprise Client-managed (Windows版) の高度でインテリジ...
 
詳説 Qlik Sense GeoOperations – Qlik Sense SaaSで地理データを計算する
詳説 Qlik Sense GeoOperations – Qlik Sense SaaSで地理データを計算する詳説 Qlik Sense GeoOperations – Qlik Sense SaaSで地理データを計算する
詳説 Qlik Sense GeoOperations – Qlik Sense SaaSで地理データを計算する
 
Qlik Application Automation ~ テンプレートで素早く自動化フローを作成
Qlik Application Automation ~ テンプレートで素早く自動化フローを作成Qlik Application Automation ~ テンプレートで素早く自動化フローを作成
Qlik Application Automation ~ テンプレートで素早く自動化フローを作成
 
Qlik Sense マッシュアップ開発 - SaaS版とWindows版でJWTによる認証
Qlik Sense マッシュアップ開発 - SaaS版とWindows版でJWTによる認証Qlik Sense マッシュアップ開発 - SaaS版とWindows版でJWTによる認証
Qlik Sense マッシュアップ開発 - SaaS版とWindows版でJWTによる認証
 
TECH TALK 2021/08/10 一歩進んだQlikアプリの開発~Qlik専用QVDファイルでシステムの効率アップ
TECH TALK 2021/08/10 一歩進んだQlikアプリの開発~Qlik専用QVDファイルでシステムの効率アップTECH TALK 2021/08/10 一歩進んだQlikアプリの開発~Qlik専用QVDファイルでシステムの効率アップ
TECH TALK 2021/08/10 一歩進んだQlikアプリの開発~Qlik専用QVDファイルでシステムの効率アップ
 
Qlik TECH TALK 新しい編集モード New Authoring Experienceのご紹介
Qlik TECH TALK 新しい編集モード New Authoring Experienceのご紹介Qlik TECH TALK 新しい編集モード New Authoring Experienceのご紹介
Qlik TECH TALK 新しい編集モード New Authoring Experienceのご紹介
 
Qlik Senseを使ったSAP ECCとSAP S4 HANAのデータ分析
Qlik Senseを使ったSAP ECCとSAP S4 HANAのデータ分析Qlik Senseを使ったSAP ECCとSAP S4 HANAのデータ分析
Qlik Senseを使ったSAP ECCとSAP S4 HANAのデータ分析
 

Similaire à Hybrid Data Deliveryを活用してオンプレミスデータをQlik Cloudでリアルタイム活用!

【de:code 2020】 Power Platform で広がるデータ インテグレーションの世界 (1/2)
【de:code 2020】 Power Platform で広がるデータ インテグレーションの世界 (1/2)【de:code 2020】 Power Platform で広がるデータ インテグレーションの世界 (1/2)
【de:code 2020】 Power Platform で広がるデータ インテグレーションの世界 (1/2)日本マイクロソフト株式会社
 
Data platformdesign
Data platformdesignData platformdesign
Data platformdesignRyoma Nagata
 
TECHTALK 20201020 Qlik DataTransferによるクラウド版Qlik Senseへのデータ転送・更新の自動化
TECHTALK 20201020 Qlik DataTransferによるクラウド版Qlik Senseへのデータ転送・更新の自動化TECHTALK 20201020 Qlik DataTransferによるクラウド版Qlik Senseへのデータ転送・更新の自動化
TECHTALK 20201020 Qlik DataTransferによるクラウド版Qlik Senseへのデータ転送・更新の自動化QlikPresalesJapan
 
Qlik TECH TALK 20210706 SAPデータ分析を加速するQlikのアクセレレーターパッケージご紹介
Qlik TECH TALK 20210706 SAPデータ分析を加速するQlikのアクセレレーターパッケージご紹介Qlik TECH TALK 20210706 SAPデータ分析を加速するQlikのアクセレレーターパッケージご紹介
Qlik TECH TALK 20210706 SAPデータ分析を加速するQlikのアクセレレーターパッケージご紹介QlikPresalesJapan
 
[de:code 2019 振り返り Night!] Data Platform
[de:code 2019 振り返り Night!] Data Platform[de:code 2019 振り返り Night!] Data Platform
[de:code 2019 振り返り Night!] Data PlatformNaoki (Neo) SATO
 
Developers.IO 2019 Effective Datalake
Developers.IO 2019 Effective DatalakeDevelopers.IO 2019 Effective Datalake
Developers.IO 2019 Effective DatalakeSatoru Ishikawa
 
TECH TALK 2023-06-06 Qlik Sense Client-Managed に SaaSを組み合わせて、Qlik AutoMLやQlik...
TECH TALK 2023-06-06 Qlik Sense Client-Managed に SaaSを組み合わせて、Qlik AutoMLやQlik...TECH TALK 2023-06-06 Qlik Sense Client-Managed に SaaSを組み合わせて、Qlik AutoMLやQlik...
TECH TALK 2023-06-06 Qlik Sense Client-Managed に SaaSを組み合わせて、Qlik AutoMLやQlik...QlikPresalesJapan
 
Cloudera World Tokyo 2015 Oracleセッション資料 「ビッグデータ/IoTの最新事例とHadoop活用の勘所」
Cloudera World Tokyo 2015 Oracleセッション資料 「ビッグデータ/IoTの最新事例とHadoop活用の勘所」Cloudera World Tokyo 2015 Oracleセッション資料 「ビッグデータ/IoTの最新事例とHadoop活用の勘所」
Cloudera World Tokyo 2015 Oracleセッション資料 「ビッグデータ/IoTの最新事例とHadoop活用の勘所」オラクルエンジニア通信
 
【de:code 2020】 Azure Synapse Analytics 技術編 ~ 最新の統合分析プラットフォームによる新しい価値の創出(前編)
【de:code 2020】 Azure Synapse Analytics 技術編 ~ 最新の統合分析プラットフォームによる新しい価値の創出(前編)【de:code 2020】 Azure Synapse Analytics 技術編 ~ 最新の統合分析プラットフォームによる新しい価値の創出(前編)
【de:code 2020】 Azure Synapse Analytics 技術編 ~ 最新の統合分析プラットフォームによる新しい価値の創出(前編)日本マイクロソフト株式会社
 
M06_DX を担うエンジニア向け Data & AI Analytics プラットフォームの最適解 ~ Azure Synapse 最新機能ご紹介 ~ ...
M06_DX を担うエンジニア向け Data & AI Analytics プラットフォームの最適解 ~ Azure Synapse 最新機能ご紹介 ~ ...M06_DX を担うエンジニア向け Data & AI Analytics プラットフォームの最適解 ~ Azure Synapse 最新機能ご紹介 ~ ...
M06_DX を担うエンジニア向け Data & AI Analytics プラットフォームの最適解 ~ Azure Synapse 最新機能ご紹介 ~ ...日本マイクロソフト株式会社
 
Microsoft Ignite Fall 2021 Data Platform Update Topics
Microsoft Ignite Fall 2021 Data Platform Update TopicsMicrosoft Ignite Fall 2021 Data Platform Update Topics
Microsoft Ignite Fall 2021 Data Platform Update TopicsMicrosoft
 
Share pointを支えるsql server2014最新情報 tokyo_公開用
Share pointを支えるsql server2014最新情報 tokyo_公開用Share pointを支えるsql server2014最新情報 tokyo_公開用
Share pointを支えるsql server2014最新情報 tokyo_公開用Yukio Kumazawa
 
Qlik Cloudデータ統合:Data Gateway - Data Movementのセットアップ
Qlik Cloudデータ統合:Data Gateway - Data MovementのセットアップQlik Cloudデータ統合:Data Gateway - Data Movementのセットアップ
Qlik Cloudデータ統合:Data Gateway - Data MovementのセットアップQlikPresalesJapan
 
Autonomous を支える技術、Oracle Database 18c デモンストレーション
Autonomous を支える技術、Oracle Database 18c デモンストレーションAutonomous を支える技術、Oracle Database 18c デモンストレーション
Autonomous を支える技術、Oracle Database 18c デモンストレーションオラクルエンジニア通信
 
データ基盤の従来~最新の考え方とSynapse Analyticsでの実現
データ基盤の従来~最新の考え方とSynapse Analyticsでの実現データ基盤の従来~最新の考え方とSynapse Analyticsでの実現
データ基盤の従来~最新の考え方とSynapse Analyticsでの実現Ryoma Nagata
 
No-Ops で大量データ処理基盤を簡単に実現する
No-Ops で大量データ処理基盤を簡単に実現するNo-Ops で大量データ処理基盤を簡単に実現する
No-Ops で大量データ処理基盤を簡単に実現するKiyoshi Fukuda
 
オラクル・データベース・クラウド~さらなる進化のご紹介(Oracle Cloud Days Tokyo 2015)
オラクル・データベース・クラウド~さらなる進化のご紹介(Oracle Cloud Days Tokyo 2015)オラクル・データベース・クラウド~さらなる進化のご紹介(Oracle Cloud Days Tokyo 2015)
オラクル・データベース・クラウド~さらなる進化のご紹介(Oracle Cloud Days Tokyo 2015)オラクルエンジニア通信
 
20210305_MySQLベースのクエリ・アクセラレーターHeatWaveのご紹介
20210305_MySQLベースのクエリ・アクセラレーターHeatWaveのご紹介20210305_MySQLベースのクエリ・アクセラレーターHeatWaveのご紹介
20210305_MySQLベースのクエリ・アクセラレーターHeatWaveのご紹介Machiko Ikoma
 
ほんとに使える?Big Data SQL検証結果から見る、その有益性(性能編)
ほんとに使える?Big Data SQL検証結果から見る、その有益性(性能編)ほんとに使える?Big Data SQL検証結果から見る、その有益性(性能編)
ほんとに使える?Big Data SQL検証結果から見る、その有益性(性能編)オラクルエンジニア通信
 

Similaire à Hybrid Data Deliveryを活用してオンプレミスデータをQlik Cloudでリアルタイム活用! (20)

【de:code 2020】 Power Platform で広がるデータ インテグレーションの世界 (1/2)
【de:code 2020】 Power Platform で広がるデータ インテグレーションの世界 (1/2)【de:code 2020】 Power Platform で広がるデータ インテグレーションの世界 (1/2)
【de:code 2020】 Power Platform で広がるデータ インテグレーションの世界 (1/2)
 
Data platformdesign
Data platformdesignData platformdesign
Data platformdesign
 
TECHTALK 20201020 Qlik DataTransferによるクラウド版Qlik Senseへのデータ転送・更新の自動化
TECHTALK 20201020 Qlik DataTransferによるクラウド版Qlik Senseへのデータ転送・更新の自動化TECHTALK 20201020 Qlik DataTransferによるクラウド版Qlik Senseへのデータ転送・更新の自動化
TECHTALK 20201020 Qlik DataTransferによるクラウド版Qlik Senseへのデータ転送・更新の自動化
 
Qlik TECH TALK 20210706 SAPデータ分析を加速するQlikのアクセレレーターパッケージご紹介
Qlik TECH TALK 20210706 SAPデータ分析を加速するQlikのアクセレレーターパッケージご紹介Qlik TECH TALK 20210706 SAPデータ分析を加速するQlikのアクセレレーターパッケージご紹介
Qlik TECH TALK 20210706 SAPデータ分析を加速するQlikのアクセレレーターパッケージご紹介
 
[de:code 2019 振り返り Night!] Data Platform
[de:code 2019 振り返り Night!] Data Platform[de:code 2019 振り返り Night!] Data Platform
[de:code 2019 振り返り Night!] Data Platform
 
Developers.IO 2019 Effective Datalake
Developers.IO 2019 Effective DatalakeDevelopers.IO 2019 Effective Datalake
Developers.IO 2019 Effective Datalake
 
TECH TALK 2023-06-06 Qlik Sense Client-Managed に SaaSを組み合わせて、Qlik AutoMLやQlik...
TECH TALK 2023-06-06 Qlik Sense Client-Managed に SaaSを組み合わせて、Qlik AutoMLやQlik...TECH TALK 2023-06-06 Qlik Sense Client-Managed に SaaSを組み合わせて、Qlik AutoMLやQlik...
TECH TALK 2023-06-06 Qlik Sense Client-Managed に SaaSを組み合わせて、Qlik AutoMLやQlik...
 
Cloudera World Tokyo 2015 Oracleセッション資料 「ビッグデータ/IoTの最新事例とHadoop活用の勘所」
Cloudera World Tokyo 2015 Oracleセッション資料 「ビッグデータ/IoTの最新事例とHadoop活用の勘所」Cloudera World Tokyo 2015 Oracleセッション資料 「ビッグデータ/IoTの最新事例とHadoop活用の勘所」
Cloudera World Tokyo 2015 Oracleセッション資料 「ビッグデータ/IoTの最新事例とHadoop活用の勘所」
 
【de:code 2020】 Azure Synapse Analytics 技術編 ~ 最新の統合分析プラットフォームによる新しい価値の創出(前編)
【de:code 2020】 Azure Synapse Analytics 技術編 ~ 最新の統合分析プラットフォームによる新しい価値の創出(前編)【de:code 2020】 Azure Synapse Analytics 技術編 ~ 最新の統合分析プラットフォームによる新しい価値の創出(前編)
【de:code 2020】 Azure Synapse Analytics 技術編 ~ 最新の統合分析プラットフォームによる新しい価値の創出(前編)
 
M06_DX を担うエンジニア向け Data & AI Analytics プラットフォームの最適解 ~ Azure Synapse 最新機能ご紹介 ~ ...
M06_DX を担うエンジニア向け Data & AI Analytics プラットフォームの最適解 ~ Azure Synapse 最新機能ご紹介 ~ ...M06_DX を担うエンジニア向け Data & AI Analytics プラットフォームの最適解 ~ Azure Synapse 最新機能ご紹介 ~ ...
M06_DX を担うエンジニア向け Data & AI Analytics プラットフォームの最適解 ~ Azure Synapse 最新機能ご紹介 ~ ...
 
Microsoft Ignite Fall 2021 Data Platform Update Topics
Microsoft Ignite Fall 2021 Data Platform Update TopicsMicrosoft Ignite Fall 2021 Data Platform Update Topics
Microsoft Ignite Fall 2021 Data Platform Update Topics
 
Share pointを支えるsql server2014最新情報 tokyo_公開用
Share pointを支えるsql server2014最新情報 tokyo_公開用Share pointを支えるsql server2014最新情報 tokyo_公開用
Share pointを支えるsql server2014最新情報 tokyo_公開用
 
Qlik Cloudデータ統合:Data Gateway - Data Movementのセットアップ
Qlik Cloudデータ統合:Data Gateway - Data MovementのセットアップQlik Cloudデータ統合:Data Gateway - Data Movementのセットアップ
Qlik Cloudデータ統合:Data Gateway - Data Movementのセットアップ
 
Autonomous を支える技術、Oracle Database 18c デモンストレーション
Autonomous を支える技術、Oracle Database 18c デモンストレーションAutonomous を支える技術、Oracle Database 18c デモンストレーション
Autonomous を支える技術、Oracle Database 18c デモンストレーション
 
データ基盤の従来~最新の考え方とSynapse Analyticsでの実現
データ基盤の従来~最新の考え方とSynapse Analyticsでの実現データ基盤の従来~最新の考え方とSynapse Analyticsでの実現
データ基盤の従来~最新の考え方とSynapse Analyticsでの実現
 
No-Ops で大量データ処理基盤を簡単に実現する
No-Ops で大量データ処理基盤を簡単に実現するNo-Ops で大量データ処理基盤を簡単に実現する
No-Ops で大量データ処理基盤を簡単に実現する
 
No-Ops で大量データ処理基盤
No-Ops で大量データ処理基盤No-Ops で大量データ処理基盤
No-Ops で大量データ処理基盤
 
オラクル・データベース・クラウド~さらなる進化のご紹介(Oracle Cloud Days Tokyo 2015)
オラクル・データベース・クラウド~さらなる進化のご紹介(Oracle Cloud Days Tokyo 2015)オラクル・データベース・クラウド~さらなる進化のご紹介(Oracle Cloud Days Tokyo 2015)
オラクル・データベース・クラウド~さらなる進化のご紹介(Oracle Cloud Days Tokyo 2015)
 
20210305_MySQLベースのクエリ・アクセラレーターHeatWaveのご紹介
20210305_MySQLベースのクエリ・アクセラレーターHeatWaveのご紹介20210305_MySQLベースのクエリ・アクセラレーターHeatWaveのご紹介
20210305_MySQLベースのクエリ・アクセラレーターHeatWaveのご紹介
 
ほんとに使える?Big Data SQL検証結果から見る、その有益性(性能編)
ほんとに使える?Big Data SQL検証結果から見る、その有益性(性能編)ほんとに使える?Big Data SQL検証結果から見る、その有益性(性能編)
ほんとに使える?Big Data SQL検証結果から見る、その有益性(性能編)
 

Plus de QlikPresalesJapan

2024-05-07 TECH TALK Talend Data Quality
2024-05-07 TECH TALK Talend Data Quality2024-05-07 TECH TALK Talend Data Quality
2024-05-07 TECH TALK Talend Data QualityQlikPresalesJapan
 
Talend Studioのビッグデータ対応機能のご紹介 - Hadoop, HDFS, Hive, HBase, Spark, NoSQL
Talend Studioのビッグデータ対応機能のご紹介 - Hadoop, HDFS, Hive, HBase, Spark, NoSQLTalend Studioのビッグデータ対応機能のご紹介 - Hadoop, HDFS, Hive, HBase, Spark, NoSQL
Talend Studioのビッグデータ対応機能のご紹介 - Hadoop, HDFS, Hive, HBase, Spark, NoSQLQlikPresalesJapan
 
2024/04/25 Qlik医療データ活用勉強会_第36回_202404.pptx
2024/04/25 Qlik医療データ活用勉強会_第36回_202404.pptx2024/04/25 Qlik医療データ活用勉強会_第36回_202404.pptx
2024/04/25 Qlik医療データ活用勉強会_第36回_202404.pptxQlikPresalesJapan
 
Qlik TECH TALK 組織のメタデータを一元管理「Talend Data Catalog」のご紹介
Qlik TECH TALK 組織のメタデータを一元管理「Talend Data Catalog」のご紹介Qlik TECH TALK 組織のメタデータを一元管理「Talend Data Catalog」のご紹介
Qlik TECH TALK 組織のメタデータを一元管理「Talend Data Catalog」のご紹介QlikPresalesJapan
 
Qlik Tips 20240416 Qlik Senseのトレンド線の係数の計算方法
Qlik Tips 20240416 Qlik Senseのトレンド線の係数の計算方法Qlik Tips 20240416 Qlik Senseのトレンド線の係数の計算方法
Qlik Tips 20240416 Qlik Senseのトレンド線の係数の計算方法QlikPresalesJapan
 
Qlik Tips - 2024/04/16 Capacity データ消費の確認
Qlik Tips - 2024/04/16 Capacity データ消費の確認Qlik Tips - 2024/04/16 Capacity データ消費の確認
Qlik Tips - 2024/04/16 Capacity データ消費の確認QlikPresalesJapan
 
Talend Studioで独自関数を実装して呼び出す - グローバルルーチンとカスタムルーチンJar
Talend Studioで独自関数を実装して呼び出す - グローバルルーチンとカスタムルーチンJarTalend Studioで独自関数を実装して呼び出す - グローバルルーチンとカスタムルーチンJar
Talend Studioで独自関数を実装して呼び出す - グローバルルーチンとカスタムルーチンJarQlikPresalesJapan
 
Qlik TECHTALK Qlik Cloud 日本リージョン開設!テナント作成と移行方法を解説
Qlik TECHTALK Qlik Cloud 日本リージョン開設!テナント作成と移行方法を解説Qlik TECHTALK Qlik Cloud 日本リージョン開設!テナント作成と移行方法を解説
Qlik TECHTALK Qlik Cloud 日本リージョン開設!テナント作成と移行方法を解説QlikPresalesJapan
 
Talend Cloudの管理プラットフォーム Talend Management Consoleのご紹介
Talend Cloudの管理プラットフォームTalend Management Consoleのご紹介Talend Cloudの管理プラットフォームTalend Management Consoleのご紹介
Talend Cloudの管理プラットフォーム Talend Management Consoleのご紹介QlikPresalesJapan
 
【Qlik 医療データ活用勉強会】-速報-令和4年度DPC「退院患者調査」データの活用
【Qlik 医療データ活用勉強会】-速報-令和4年度DPC「退院患者調査」データの活用【Qlik 医療データ活用勉強会】-速報-令和4年度DPC「退院患者調査」データの活用
【Qlik 医療データ活用勉強会】-速報-令和4年度DPC「退院患者調査」データの活用QlikPresalesJapan
 
Talend StudioでAPIを開発 - SOAP/RESTのサービス開発手法
Talend StudioでAPIを開発 - SOAP/RESTのサービス開発手法Talend StudioでAPIを開発 - SOAP/RESTのサービス開発手法
Talend StudioでAPIを開発 - SOAP/RESTのサービス開発手法QlikPresalesJapan
 
Direct QueryのカスタムSQL(Qlik Tips ~ Qlik を使いこなす!スキルアップ勉強会)
Direct QueryのカスタムSQL(Qlik Tips ~ Qlik を使いこなす!スキルアップ勉強会)Direct QueryのカスタムSQL(Qlik Tips ~ Qlik を使いこなす!スキルアップ勉強会)
Direct QueryのカスタムSQL(Qlik Tips ~ Qlik を使いこなす!スキルアップ勉強会)QlikPresalesJapan
 
Talend Studioの汎用JDBCコンポーネントを使う - JDBC API
Talend Studioの汎用JDBCコンポーネントを使う - JDBC APITalend Studioの汎用JDBCコンポーネントを使う - JDBC API
Talend Studioの汎用JDBCコンポーネントを使う - JDBC APIQlikPresalesJapan
 
20240319 Qlik Tips 折れ線チャートの時系列予測についての説明
20240319  Qlik Tips  折れ線チャートの時系列予測についての説明20240319  Qlik Tips  折れ線チャートの時系列予測についての説明
20240319 Qlik Tips 折れ線チャートの時系列予測についての説明QlikPresalesJapan
 
どうしてそうなったのか?機械学習モデルで「結果」の「理由」を知るキードライバー分析
どうしてそうなったのか?機械学習モデルで「結果」の「理由」を知るキードライバー分析どうしてそうなったのか?機械学習モデルで「結果」の「理由」を知るキードライバー分析
どうしてそうなったのか?機械学習モデルで「結果」の「理由」を知るキードライバー分析QlikPresalesJapan
 
TECH TALK Talend Administration Center の紹介
TECH TALK Talend Administration Center の紹介TECH TALK Talend Administration Center の紹介
TECH TALK Talend Administration Center の紹介QlikPresalesJapan
 
【Qlik 医療データ活用勉強会】機能評価係数Ⅱの内訳データの分析  -その2-
【Qlik 医療データ活用勉強会】機能評価係数Ⅱの内訳データの分析  -その2-【Qlik 医療データ活用勉強会】機能評価係数Ⅱの内訳データの分析  -その2-
【Qlik 医療データ活用勉強会】機能評価係数Ⅱの内訳データの分析  -その2-QlikPresalesJapan
 
Qlik What's New - February 2024 リリースの新機能のご紹介
Qlik What's New - February 2024 リリースの新機能のご紹介Qlik What's New - February 2024 リリースの新機能のご紹介
Qlik What's New - February 2024 リリースの新機能のご紹介QlikPresalesJapan
 
20240213_TechTalk_TalendStudio.pptx
20240213_TechTalk_TalendStudio.pptx20240213_TechTalk_TalendStudio.pptx
20240213_TechTalk_TalendStudio.pptxQlikPresalesJapan
 
20240206 Qlik Tips Pivot Straight TBL の改善
20240206 Qlik Tips Pivot Straight TBL の改善20240206 Qlik Tips Pivot Straight TBL の改善
20240206 Qlik Tips Pivot Straight TBL の改善QlikPresalesJapan
 

Plus de QlikPresalesJapan (20)

2024-05-07 TECH TALK Talend Data Quality
2024-05-07 TECH TALK Talend Data Quality2024-05-07 TECH TALK Talend Data Quality
2024-05-07 TECH TALK Talend Data Quality
 
Talend Studioのビッグデータ対応機能のご紹介 - Hadoop, HDFS, Hive, HBase, Spark, NoSQL
Talend Studioのビッグデータ対応機能のご紹介 - Hadoop, HDFS, Hive, HBase, Spark, NoSQLTalend Studioのビッグデータ対応機能のご紹介 - Hadoop, HDFS, Hive, HBase, Spark, NoSQL
Talend Studioのビッグデータ対応機能のご紹介 - Hadoop, HDFS, Hive, HBase, Spark, NoSQL
 
2024/04/25 Qlik医療データ活用勉強会_第36回_202404.pptx
2024/04/25 Qlik医療データ活用勉強会_第36回_202404.pptx2024/04/25 Qlik医療データ活用勉強会_第36回_202404.pptx
2024/04/25 Qlik医療データ活用勉強会_第36回_202404.pptx
 
Qlik TECH TALK 組織のメタデータを一元管理「Talend Data Catalog」のご紹介
Qlik TECH TALK 組織のメタデータを一元管理「Talend Data Catalog」のご紹介Qlik TECH TALK 組織のメタデータを一元管理「Talend Data Catalog」のご紹介
Qlik TECH TALK 組織のメタデータを一元管理「Talend Data Catalog」のご紹介
 
Qlik Tips 20240416 Qlik Senseのトレンド線の係数の計算方法
Qlik Tips 20240416 Qlik Senseのトレンド線の係数の計算方法Qlik Tips 20240416 Qlik Senseのトレンド線の係数の計算方法
Qlik Tips 20240416 Qlik Senseのトレンド線の係数の計算方法
 
Qlik Tips - 2024/04/16 Capacity データ消費の確認
Qlik Tips - 2024/04/16 Capacity データ消費の確認Qlik Tips - 2024/04/16 Capacity データ消費の確認
Qlik Tips - 2024/04/16 Capacity データ消費の確認
 
Talend Studioで独自関数を実装して呼び出す - グローバルルーチンとカスタムルーチンJar
Talend Studioで独自関数を実装して呼び出す - グローバルルーチンとカスタムルーチンJarTalend Studioで独自関数を実装して呼び出す - グローバルルーチンとカスタムルーチンJar
Talend Studioで独自関数を実装して呼び出す - グローバルルーチンとカスタムルーチンJar
 
Qlik TECHTALK Qlik Cloud 日本リージョン開設!テナント作成と移行方法を解説
Qlik TECHTALK Qlik Cloud 日本リージョン開設!テナント作成と移行方法を解説Qlik TECHTALK Qlik Cloud 日本リージョン開設!テナント作成と移行方法を解説
Qlik TECHTALK Qlik Cloud 日本リージョン開設!テナント作成と移行方法を解説
 
Talend Cloudの管理プラットフォーム Talend Management Consoleのご紹介
Talend Cloudの管理プラットフォームTalend Management Consoleのご紹介Talend Cloudの管理プラットフォームTalend Management Consoleのご紹介
Talend Cloudの管理プラットフォーム Talend Management Consoleのご紹介
 
【Qlik 医療データ活用勉強会】-速報-令和4年度DPC「退院患者調査」データの活用
【Qlik 医療データ活用勉強会】-速報-令和4年度DPC「退院患者調査」データの活用【Qlik 医療データ活用勉強会】-速報-令和4年度DPC「退院患者調査」データの活用
【Qlik 医療データ活用勉強会】-速報-令和4年度DPC「退院患者調査」データの活用
 
Talend StudioでAPIを開発 - SOAP/RESTのサービス開発手法
Talend StudioでAPIを開発 - SOAP/RESTのサービス開発手法Talend StudioでAPIを開発 - SOAP/RESTのサービス開発手法
Talend StudioでAPIを開発 - SOAP/RESTのサービス開発手法
 
Direct QueryのカスタムSQL(Qlik Tips ~ Qlik を使いこなす!スキルアップ勉強会)
Direct QueryのカスタムSQL(Qlik Tips ~ Qlik を使いこなす!スキルアップ勉強会)Direct QueryのカスタムSQL(Qlik Tips ~ Qlik を使いこなす!スキルアップ勉強会)
Direct QueryのカスタムSQL(Qlik Tips ~ Qlik を使いこなす!スキルアップ勉強会)
 
Talend Studioの汎用JDBCコンポーネントを使う - JDBC API
Talend Studioの汎用JDBCコンポーネントを使う - JDBC APITalend Studioの汎用JDBCコンポーネントを使う - JDBC API
Talend Studioの汎用JDBCコンポーネントを使う - JDBC API
 
20240319 Qlik Tips 折れ線チャートの時系列予測についての説明
20240319  Qlik Tips  折れ線チャートの時系列予測についての説明20240319  Qlik Tips  折れ線チャートの時系列予測についての説明
20240319 Qlik Tips 折れ線チャートの時系列予測についての説明
 
どうしてそうなったのか?機械学習モデルで「結果」の「理由」を知るキードライバー分析
どうしてそうなったのか?機械学習モデルで「結果」の「理由」を知るキードライバー分析どうしてそうなったのか?機械学習モデルで「結果」の「理由」を知るキードライバー分析
どうしてそうなったのか?機械学習モデルで「結果」の「理由」を知るキードライバー分析
 
TECH TALK Talend Administration Center の紹介
TECH TALK Talend Administration Center の紹介TECH TALK Talend Administration Center の紹介
TECH TALK Talend Administration Center の紹介
 
【Qlik 医療データ活用勉強会】機能評価係数Ⅱの内訳データの分析  -その2-
【Qlik 医療データ活用勉強会】機能評価係数Ⅱの内訳データの分析  -その2-【Qlik 医療データ活用勉強会】機能評価係数Ⅱの内訳データの分析  -その2-
【Qlik 医療データ活用勉強会】機能評価係数Ⅱの内訳データの分析  -その2-
 
Qlik What's New - February 2024 リリースの新機能のご紹介
Qlik What's New - February 2024 リリースの新機能のご紹介Qlik What's New - February 2024 リリースの新機能のご紹介
Qlik What's New - February 2024 リリースの新機能のご紹介
 
20240213_TechTalk_TalendStudio.pptx
20240213_TechTalk_TalendStudio.pptx20240213_TechTalk_TalendStudio.pptx
20240213_TechTalk_TalendStudio.pptx
 
20240206 Qlik Tips Pivot Straight TBL の改善
20240206 Qlik Tips Pivot Straight TBL の改善20240206 Qlik Tips Pivot Straight TBL の改善
20240206 Qlik Tips Pivot Straight TBL の改善
 

Hybrid Data Deliveryを活用してオンプレミスデータをQlik Cloudでリアルタイム活用!

  • 1. 2022/4/26 クリックテック・ジャパン株式会社 中嶋 翔 Senior Solution Architect Hybrid Data Delivery ハイブリッドデータ配信 Qlik TECH TALK
  • 4. 4 本日の動画と資料について • 本セッションの資料と動画は後日TechPlayのレポートで公開されます。 • 以前のセッションにつきましては、YouTubeのプレイリスト、 Slideshareをご覧ください。 • SlideShareからのPDF版資料のダウンロードは、SlideShareへの登録が必要となります。
  • 5. 5 アジェンダ • Hybrid Data Deliveryの概要 • システム要件と制限 • データスペース • DEMO • FAQ • Q&A • その他の情報 • Appendix • オンプレミスデータソースからのデータランディング • クラウドデータソースからのデータランディング • ストレージデータアセットの作成 • HDDで生成したテーブルを使用した分析アプリの作成
  • 7. 7 Qlik Cloud Vision アクティブ・インテリジェンス・プラットフォーム Qlik Cloud RDBMS Files Mainframe SaaS Apps SAP Analytics Services Data Warehouse Data Lake Data Services Stream Developer & API Collaboration Governance & Security Catalog & Lineage Associative Engine Hybrid Data Delivery Application Automation Data Transformation Data Warehouse Automation Artificial Intelligence Orchestration Augmented Analytics Alerting & Action Visualization & Dashboards Universal Connectivity On-premises Hybrid Cloud Embedded Analytics Foundational Services
  • 8. 8 Hybrid Data Delivery ハイブリッドデータ配信 • Qlik CloudやクラウドDWHにニアリアルタイムでデータ を取り込むための統合データインテグレーション • 生データからインサイト獲得とアクションまでの時間を短縮 • CDCやバッチリロードにより、手動操作なしで常にデータを 最新に保つ • コーディングやETLスクリプトなしでオンプレミスソースとク ラウドソースをサポート Qlik Cloud Data Services: Hybrid Data Delivery
  • 9. 9 オンプレミスとクラウドのデータソースに対応 • 様々なデータソースからデータをランディングすることができます。 - オンプレミスデータのランディング (Qlik Replicate/Enterprise Managerを使用) • Qlik Replicateでサポートされているデータソースからデータをランディングすることができます。 • 詳細については、「サポートされているデータソース」を参照してください。 - クラウドデータソースからのデータランディング • Qlik Cloudのデータ接続を通じてデータをランディングすることができます。 • 詳細については、「サポートされるQlik Cloudデータソース」を参照してください。
  • 10. 10 Qlik Replicateサポートマトリクス ソース ターゲット  Oracle  SQL Server  DB2 iSeries  DB2 z/OS  DB2 LUW  MySQL  PostrgeSQL  Sybase ASE  Informix  SAP HANA  ODBC  DB2 z/OS  IMS/DB  VSAM  COBOL Copybooks  ECC  ERP  CRM  SRM  GTS  MDG  SAP ECC - HANA  SAP HANA (database)  (on Oracle, SQL, DB2 LUW, HANA) Database Mainframe SAP  Exadata  Teradata  Netezza  Vertica  Pivotal  Amazon RDS (SQL Server, Oracle, MySQL, Postgres)  Amazon Aurora (MySQL)  Azure SQL Server MI  Google Cloud SQL (MySQL, PostgreSQL)  Salesforce EDW Cloud SaaS  XML  JSON  Delimited (e.g., CSV, TSV) Flat Files  RDS (MySQL, Postgres, MariaDB, Oracle, SQL Server)  Aurora (MySQL, Postgres)  S3  EMR  Kinesis  Redshift  Snowflake  Databricks (Q2)  DBaaS (SQL DB)  DBaaS (MySQL, Postgres)  ADLS Gen1 & 2  BLOB  HDInsight  Event Hub  Synapse (SQL DW)  Snowflake  Databricks  Cloud SQL (MySQL, Postgres)  Cloud Storage  Dataproc  Pub/Sub (‘20)  BigQuery ( ‘20)  Snowflake (‘20) AWS Azure Google  Hortonworks  Cloudera  MapR  Amazon EMR  Azure HDInsight  Google Dataproc  Kafka  Amazon Kinesis  Azure Event Hubs  MapR Streams  Exadata  Teradata  Netezza  Vertica  Sybase IQ  SAP HANA  Microsoft PDW Data Lake Streaming EDW  Oracle  SQL Server  DB2 LUW  MySQL  PostgreSQL  Sybase ASE  Informix  MemSQL Database  SAP HANA (database) SAP  Delimited (e.g., CSV, TSV) Flat Files
  • 11. 11 サポートされるQlik Cloudデータソース • 以下のQlik Cloudデータソースに対応しています。
  • 12. 12 Hybrid Data Delivery のポジション Qlikのデータオプションを比較 手動アップロード ペルソナ: ビジネスアナリスト 組織: ユーザー QSのコネクター ペルソナ: ビジネスアナリスト 組織: ユーザー Qlik DataTransfer ペルソナ: ビジネスアナリスト 組織: ユーザー Hybrid Data Delivery ペルソナ: データエンジニア 組織: IT部門 新しいデータや実験的なデー タを扱う、アドホックなデータ 解析 データソースに直接接続し、 データをQCSに取り込んで分 析することが可能 オンプレミスからQCSへデータや ファイルをQCSに転送する軽量 なユーティリティ オンプレミス(またはクラウドソー ス)からQCSやクラウドDWHへ のエンタープライズクラスのデータ デリバリーサービス ネイティブコネクタ + ODBC + SDK CDC(変更データキャプチャ) ソースへの負荷を最小化 継続的データ配信 プロトコルベース (ODBC) スケジュール実行 Windowsのみ対応 最大ファイルサイズ (6GB) 転送1回あたりファイル数制限あり プロトコルベース (例: ODBC) ファイルが対象
  • 14. 14 Qlik Replicateによるオンプレミスデータの配信 • Qlik Enterprise ManagerとQlik Cloudを接続するために、「リモートEnterprise Managerリソース」を追 加します。この設定は一度だけ実行します。 - Qlik Cloudのテナント管理者ロールと、Qlik Enterprise ManagerのEnterprise ManagerレベルのAdmin権限が必要
  • 15. 15 Qlik Replicateによるオンプレミスデータの配信 • Qlik Enterprise ManagerでReplicateタスクを作成し、データソースからクラウドのランディングエリアにデータを転送します。クラウドラ ンディングエリアは、Amazon S3バケット、またはSnowflake、Google Cloud BigQuery、Azure Synapse Analytics などのクラウドDWHを選択できます。「フルロードとCDC」、または「フルロードのみ」の2種類のモードでデータをランディングさせることがで きます。
  • 16. 16 Qlik Replicateによるオンプレミスデータの配信 • Qlik Cloud Data Servicesでランディングデータアセットを作成し、Replicateタスクに関連付けます。ランディ ングデータアセットは、データをランディングさせるReplicateタスクを制御します。CDCを使用しない場合、定期的にリ ロードをスケジュールすることで、手動で操作することなくデータを最新の状態に保つことができます。
  • 17. 17 Qlik Replicateによるオンプレミスデータの配信 • ランディングデータからテーブルを生成するためのストレージデータアセットを作成します。 - Amazon S3バケットにランディングした場合、QVDテーブルを生成することができます。 - クラウドDWHにランディングした場合、同じクラウドDWHでテーブルとビューを生成することができます。
  • 23. 23 概念と用語 • データサービスホーム • データスペース • データアセット - ランディングデータアセット - ストレージデータアセット • データリソース
  • 27. 27 データスペース • データスペースは、Qlik Cloudのテナントで管理される領域で、 目的に合ったテーブルコレクションのデータアセットを作成・保存 するために使用されます。スペース内では、コネクタを使用して新 しいデータ接続を作成することや、リモートEnterprise Managerリソースを追加することもできます。 • また、すべてのユーザーは、作成したデータアセットがデフォルトで 保存される個人用スペースを持ちます。個人用スペースはプライ ベートです。スペース間でデータアセットを移動することはできま せん。=>チームでHDDを使用するときはデータスペースを使 用しましょう。
  • 28. 28 データアセット • データアセットは、目的に応じたテーブルの集合体です。 Qlik Cloud Data Servicesの主な作業単位です。以下 のタイプのデータアセットを作成することができます。 • Qlik Replicate経由のランディング • ランディング • ストレージ (QVD) • ストレージ (クラウドデータウェアハウス) • トップメニューの「新規追加」をクリックし、「データアセットの作 成」をクリックして、新しいデータアセットを作成します。データア セットの作成ダイアログで、作成するアプリの種類を選択しま す。
  • 29. 29 データアセット • Qlik Replicate経由のランディング • オンプレミスのデータソースからランディングエリアにデータをコピーします。 ランディングデータアセットは、実際のランディングを実行するQlik Replicateタスクに接続されています。ランディングエリアは、 Amazon S3バケットまたはクラウドターゲットにすることができます。 • データをニアリアルタイムに最新に保つCDCを使用するか、フルロードの みを実行するかを選択することができます。フルロードを定期的にスケ ジュールすることで、データを最新の状態に保つこともできます。
  • 30. 30 データアセット • ランディング • Qlik Cloudのデータ接続を使用して、クラウドデータソースから ランディングエリアにデータをコピーします。ランディングエリアはクラ ウドターゲットにすることができます。 • フルロードを実行し、定期的にリロードをスケジュールすることで、 手動で操作することなくデータを最新の状態に保つことができます。 (CDCは非対応)
  • 31. 31 データアセット • ストレージ (QVD) • Qlik Replicate経由でAmazon S3ランディングエリアにコピー されたデータから、QVDテーブルを作成します。 • QVDテーブルは、手動で操作することなく、ランディングデータを 使用して最新に保たれます。
  • 32. 32 データアセット • ストレージ (クラウドデータウェアハウス) • ランディングデータアセットでコピーしたデータから、クラウドデータ ウェアハウスですぐに利用できるテーブルを作成します。テーブルは、 手動で操作することなく、ランディングデータで最新の状態に保た れます。 • また、クラウドDWHの別のストレージデータアセットを消費して、 SQLベースのテーブルからデータを追加することも可能です。
  • 33. 33 データアセット • アセットカードは、データアセットの状態を表示します。 • Data is updated to : 現時点までのすべてのソーストランザクションの データは、このデータアセットから消費することができます。この情報は、以下の 場合にデータアセットで利用可能です。 • すべてのテーブルでフルロードが完了したとき • CDC を使用している場合、最初の変更セットが処理されたとき • Tables in error: エラーが発生したテーブルの数です。 • Status: データアセットの状態。アプリがステータス実行中の場合、更新され たデータをコピーするために継続的に待機しており、必ずしもその時にデータを コピーしているわけではありません。 • ※データアセットは、管理コンソールでは管理されません。
  • 34. 34 データリソース • データリソースは、外部ストレージとQlik Enterprise Managerに接続します。 • データ接続 • データアセットが外部ストレージやクラウドデータウェアハウスにアクセスできるようにするために、データ接続 を作成します。 • 新しいデータ接続を作成するには、トップメニューの[新規追加]をクリックし、[データ接続の作成]をクリッ クします。データソースの種類を選択し、アドレスや認証情報を入力する必要があります。 • データ接続の更新は、データ接続の所有者のみが行うことができます。 • リモートEnterprise Managerリソース • これは、ランディングタスクを実行するQlik Replicateサーバーを制御するリモートのQlik Enterprise Managerサーバーへの接続です。
  • 36. 36 ハイブリッドデータ配信の全体像 矢印はデータアセットのタイプを表します。 Qlik Replicate / Enterprise Manager (主に)オンプレミス ソース Amazon S3 (お客様管理) クラウド ソース QVDs ターゲット クラウド ターゲット クラウド ランディングアセット ストレージアセット Qlik Cloud内ストレージで QVDを生成・更新 Qlik Replicate 経由のランディング ランディング ストレージ(QVD) S3でQVDを生成・更新 フルロード+CDC / フルロードのみ ストレージ(クラウドDWH) ストレージアセット SQLベースビュー フルロードのみ POINT QVDs ランディングアセット ストレージアセット
  • 38. 38 ハイブリッドデータ配信の一般的な要件 • Qlik Cloud のテナントと Qlik Sense Enterprise SaaSが必要です。 • ユーザーがデータ スペースで データ アセットを作成、管理および実行するには、プロフェッショナル アクセスのライセ ンスが必要です。 • アナライザーにアクセスできるユーザーは、データ スペースからロードされるデータを含む分析アプリを利用できます。 • Qlik Sense Enterprise SaaS - Government (US) ユーザーはハイブリッド データ配信を使用できません。 • Qlik Cloud 以外のデータソースに接続する場合は、基になる Qlik Cloud IP アドレスを許可リストに追加 する必要がある場合があります。詳細については、プライベート ネットワークからデータ ソースへの接続を参照してく ださい。
  • 39. 39 Qlik Replicateでデータをランディングするための要件 • Qlik Cloud 以外のデータ ソースに接続する場合は、基になる Qlik Cloud IP アドレスを許可リストに追加する 必要がある場合があります。詳細については、プライベート ネットワークからデータ ソースへの接続を参照してください。 • Qlik Replicate バージョン 2021.11 SR1 以降をインストール。 • 互換性があるバージョンのQlik Replicate は、プロファイル メニューの [プロファイル設定] > [ツール] から随 時ダウンロードできます。 • ライセンス要件: • ソースタイプ:オンプレミスのデータソースに準ずるライセンス • ターゲットタイプ:どのクラウドランディングエリアを使用したいかに応じたライセンス • 注: ライセンスまたは現在の資格情報については、 Qlik 担当者または Qlik サポートに問い合わせるか、「営 業に問い合わせる」フォームに記入してください。
  • 40. 40 Qlik Replicateでデータをランディングするための要件 • Qlik Enterprise Manager バージョン 2021.11 SR 1 以降がインストール済みで、 Qlik Replicate サーバ へのアクセスが設定済み。 • 互換性があるバージョンのQlik Enterprise Manager は、プロファイルメニューの [プロファイル設定] > [ツール] から随時ダウンロードできます。 • クラウドから Qlik Enterprise Manager サーバーに論理アクセスできる必要があります。詳細については、 Qlik Enterprise Manager オンラインヘルプの サーバーの追加(英語のみ) を参照してください。 • Qlik Cloudへの接続は、Enterprise Manager レベルの管理者権限が必要です。 • 注: ライセンスまたは現在の資格情報については、 Qlik 担当者または Qlik サポートに問い合わせるか、「営 業に問い合わせる」フォームに記入してください。 • Qlik Enterprise Managerとの接続を確立するときに、リモート Enterprise Manager リソースを作成できる ようにするには、テナント管理者である必要があります。
  • 41. 41 サポートされるデータソースの要件 • Qlik Replicate でサポートされているデータ ソースを使用できますが、いくつかの制限があります。 • データ ソースは、 Qlik Replicate サーバーからの読み取りアクセスを構成する必要があります。 • CDC の要件 • CDCを使用するには、ソースデータベースが変更処理をサポートしている必要があります。 • 更新イベントですべてのデータを送信しないソースデータベース。例えば、SAP HANA ログベース、Salesforce、および完全なサ プリメンタルログがオフになっている Oracle などは、データを [フルロードと変更の保存] モードでランディングする場合はサポートさ れません。 • SAP HANA を使用するには、ソースエンドポイントがトリガーベースモードで動作するように設定されている必要があります。 • Oracle ソースを使用するには、すべてのソーステーブルの列に対して完全なサプリメンタルロギングを使用してソースデータ ベースを構成する必要があります。 • CDCを使用する場合、すべてのソーステーブルには、少なくとも 1 つの主キー項目または一意のインデックス項目が含まれている必 要があります。主キー項目や一意のインデックス項目のないテーブルは、フルロードで読み込むことができます。 • SAP Extractorを使用するには、ターゲット エンドポイントがプライマリ キーを持つように構成されている必要があります。
  • 42. 42 データを保存するための必要条件 • Qlik Replicate を介してデータを Amazon S3 バケットにランディングした場合は、Qlik Cloud に管理されて いるストレージまたは自分が管理している Amazon S3 ストレージに QVD テーブルを生成できます。 • Qlik Replicate を介して Snowflake や Azure Synapse Analytics などのクラウド データ ウェアハウスに データをランディングした場合は、同じクラウド データウェア ハウスにテーブルを生成できます。
  • 43. 43 データを保存するための必要条件 • QVD テーブルを生成するための要件 • [ターゲット タイプ] の Qlik Replicate ライセンス:Qlik Cloud Landing (ハイブリッド データ配信に適応した設定の Amazon S3)。 • Qlik Replicate サーバマシンからの書き込みアクセスと Qlik Cloud テナントからの読み取りアクセスがあるランディングデータ 用のAmazon S3 バケット。 詳細については、 Qlik Replicate オンラインヘルプの 前提条件(英語のみ) を参照してください。 • 注: ランディングゾーンが安全かどうかを確認する必要があります。Amazon S3-managed keys または AWS KMS- managed keys を使用してサーバー側の暗号化が可能です。 • ストレージ (QVD) データを Qlik 管理ストレージではなく独自の管理ストレージに保存する場合は、Amazon S3 バケット が必要です。ランディングデータに使用しているものと同じ Amazon S3 バケットを使用できますが、これには Qlik Cloud テナントからの書き込みアクセスも必要です。また、ランディングデータ用とストレージ用に別々のフォルダを使用する必要があ ります。ご自身でストレージを管理している場合、[分析ハブ] の[データからアプリを作成] または [データプロファイル] を使用す ることはできません。 • 注:管理ストレージが安全かどうかを確認する必要があります。Amazon S3-managed keys または AWS KMS- managed keys を使用してサーバー側の暗号化が可能です。
  • 44. 44 データを保存するための必要条件 • Snowflake の要件 • [ターゲット タイプ] の Qlik Replicate ライセンス:Snowflake on AWS、Snowflake on Azure また は Snowflake on Google。 • Amazon Web Services、Google Cloud Platform、または Azure の Snowflake サービスへのアク セス。 • 詳細については、Qlik Replicate オンライン ヘルプを参照してください。 AWS の Snowflake - 前提条件(英語のみ) Azure の Snowflake - 前提条件(英語のみ) Google の Snowflake - 前提条件(英語のみ)
  • 45. 45 データを保存するための必要条件 • Azure Synapse Analytics の要件 • [ターゲットタイプ] のQlik Replicate ライセンス:Microsoft Azure Synapse Analytics。 • 専用の SQL プールを使用した Azure Synapse Analytics サービスへアクセスします。 • 詳細については、 Qlik Replicate オンラインヘルプを参照してください。 Azure Synapse Analytics - 前提条件(英語のみ)
  • 46. 46 データを保存するための必要条件 • Google Cloud BigQuery の要件 • [ターゲットタイプ] のQlik Replicate ライセンス:Google Cloud BigQuery。 • Google Cloud BigQuery サービスへのアクセス。 • 詳細については、 Qlik Replicate オンラインヘルプを参照してください。 Google Cloud BigQuery - 前提条件(英語のみ) • ロケーションが既定で米国に設定されています。別の場所を使用する場合は、データ接続を作成するとき、ま たはデータ接続を編集するときに、設定で場所を指定する必要があります。 • [詳細設定] の下にカスタム プロパティを追加します。[名前] を場所に設定し、[値] を使用する場所に設定 します。
  • 47. 47 制限事項 • ハイブリッドデータ配信の使用方法については、いくつかの制限があります。 • 一般的な制限 • データ ソース スキーマの変更はサポートされていません。データ ソースのスキーマを変更する場合は、新しいデータ アセットを 作成する必要があります。 • データ アセットの所有者を変更したり、データ アセットを別のスペースに移動したりすることはできません。 • ランディングエリアの自動クリーンアップはサポートされていません。これはパフォーマンスに影響する可能性があります。手動クリー ンアップの実行を推奨します。 • ストレージ データ アセット内のテーブルに変更を適用する際、アセット内の異なるテーブル間にトランザクションによる整合性は ありません。 • ランディングテーブルは、分析ハブにデータセットとして表示されます。これらのテーブルを分析アプリで使用することはできません。 • 2 つの Qlik Replicate タスクをランディングエリア内の同じテーブルに書き込まないようお勧めします。ベストプラクティスは、各 Qlik Replicate タスクに個別のランディングエリアを使用することです。
  • 48. 48 制限事項 • QVD テーブルを生成する際の制限 • データスペースは常に、ストレージ データ アセットの容量を制限するQlik Cloudの標準容量で機能します。ス トレージ データ アセットによって処理される各テーブルは、変更を含む全体のサイズである必要があります。これ は、標準アプリでサポートされているアプリサイズ (メモリ内) までです。容量の詳細については、[拡張アプリ と専用の容量] を参照してください。
  • 49. 49 制限事項 • クラウド データ ウェアハウスの制限 • Snowflake に接続する場合、OAuth 認証はサポートされません。 • すべてのテーブルは同じ内部スキーマに書き込まれ、すべてのビューはストレージ内の同じデータ アセット ス キーマに書き込まれます。したがって、1 つのランディング データ アセットの異なるスキーマに同じ名前の 2 つのテーブルを含めることはできません。 • 生成されるテーブルの詳細については、 「生成されるテーブルとビューの構造」 を参照してください。 • Google Cloud BigQuery データ接続は、既定で米国の場所で構成されています。別の場所を使用する 場合は、データ接続のプロパティでこれを設定する必要があります。 • データ接続を編集します。 • [詳細設定] の下に [場所] という名前のプロパティを追加します。 • プロパティの値を使用する場所に設定します。 • [保存] をクリックします。
  • 51. 51 データスペース • データスペースは、データアセットの作成と保存に使用される Qlik Cloud テナントの管理領域です。データ アセット は、目的に合ったテーブルのコレクションです。Qlik Cloud データサービス の主要な作業単位です。 • データスペースへのアクセスは、スペースへのメンバーシップによって決まります。データスペース内にあるデータアセット へのアクセスは、スペースのメンバーに割り当てられたロールによって決まります。つまり、ユーザーは1つ目にデータス ペースのメンバーである必要があり、2つ目に、データスペース内のデータアセットおよびリソースを作成、管理、またはモ ニターするために必要な役割を持っている必要があります。また、データアセットを利用するロールを持つメンバーは、個 人用、共用、管理用のスペースでアプリケーションを構築するときに、データスペースからのデータアセットを使用すること もできます。 • 分析に対応していないデータ アセットと分析に対応しているデータ アセットには、異なるスペースを使用することを お勧めします。分析ユーザーを制限して、分析対応スペースからのみ消費するようにすることができます。
  • 52. 52 データスペースの管理 • データスペースを管理するには、テナント管理者、データ管理者、またはスペース所有者である必要があります。また、 [Can manage (管理可能)] ロールを持つデータスペースのメンバーもスペースを管理することができます。 • 注: データスペースを作成すると、自動的に [Is owner (所有者)] ロールが割り当てられます。ロールと権限の詳 細については、データスペースのロールと権限 を参照してください。
  • 53. 53 スペースの作成 • テナント管理者またはデータ管理者である場合は、管理コンソール または データサービスのホームからデータスペースを作成できます。データスペースの作 成者ロールを持つ非管理者のユーザーの場合、データサービスのホームから データスペースを作成できます。 • 次の手順を実行します。 - 以下のいずれかの操作を実行します。 • 管理コンソール の[スペース]セクションから、[新規作成]をクリックします。(図1) • データサービスのホームの [データアセットの管理] タブで、 [新規追加] をクリックし、[データスペー スの作成] を選択します。 (図2) - [名前] と [説明] を入力します。 - [作成] をクリックします。 図1 図2
  • 54. 54 スペースの編集 • テナントまたはデータの管理者、データスペース所有者、または [Can manage (管理可能)] ロールを持つデータス ペースのメンバーである場合は、データスペースを編集することができます。 • 次の手順を実行します。 - 以下のいずれかの操作を実行します。 • 管理コンソール の[スペース] セクションから [・・・] ボタン ボタンをクリックし、[編集]をクリックします。 • データサービスのホームの [データアセットの管理] タブで、[データスペース] を選択します。 [スペースの編集] をクリックします。 - [スペースの編集] ウィンドウで、名前と説明を変更します。 - [保存] をクリックします。
  • 55. 55 スペース所有者の変更 • テナント管理者およびデータ管理者のみがスペース所有者を変更することができます。これは、管理コンソール からの み実行できます。 • 次の手順を実行します。 - 管理コンソール の[スペース]セクションから、[所有者の変更]をクリックします。 - [所有者の変更] ウィンドウで、ユーザー名、電子メール、件名、またはユーザーIDからユーザーを検索します。 - [適用] をクリックします。
  • 56. 56 データ スペースのメンバーとロールの追加と削除 • データ スペースが最初に作成されたとき、スペースを作成したユーザーのみがスペースのメンバーです。 • 他のユーザーがスペース内のデータ スペースとデータ アセットにアクセスできるようにするには、最初にメンバーをスペー スに追加してから、スペースとスペース内のデータ アセットに対するアクセス許可をユーザーに付与するロールを割り当 てます。データ スペース メンバーを追加および削除したり、それらの役割を変更または削除したりできます。 • データ スペースのメンバーを追加または削除したり、メンバーのロールを編集したりするには、テナントまたはデータ管理 者、データ スペースの所有者、または [管理可能] なロールを持つデータ スペースのメンバーである必要があります。 データ スペースのメンバーに割り当てることができるさまざまな役割については、データスペースのロールと権限 を参照 してください。
  • 57. 57 データ スペースのメンバーとロールの追加と削除 • 次の手順を実行します。 - 以下のいずれかの操作を実行します。 • 管理コンソール の[スペース] セクションから 3 つのドット ボタン ボタンをクリックし、[メンバーの管理]をクリックします。 • データサービスのホームの [データアセットの管理] タブで、[データスペース] を選択します。 [詳細] をクリックし、[メンバー] をクリックします。 - [メンバーの追加] をクリックします。 - スペースに追加するユーザを検索します。 - 新規ユーザー用のロールを選択します。 - [メンバーの追加] をクリックします。 - メンバーを削除するには、[・・・]、[削除] の順にクリックします。 - メンバーのロールを変更するには、ドロップダウンメニューからロールを選択し、ロールを調整します。
  • 58. 58 データスペースのロールと権限 • データ スペースを作成すると、そのデータ スペース、およびそのスペース内のすべてのデータアセットおよびリソースの所 有者になります。スペース所有者、テナント管理者、およびデータ管理者は、データスペースにメンバーを追加すること ができます。また、[Can manage (管理可能)] ロールを付与されたデータ スペースメンバーは、他のメンバーをス ペースに追加することができます。データ スペースにメンバーを追加すると、そのメンバーにスペース内のロールを割り当 てることができます。スペースのロールは、データ スペースの権限のセット、およびスペース内のデータアセットとリソースに よって定義されます。 • データアセットは、所有者のコンテキストに作用します。 - データアセットの所有者は、データアセットが存在するスペースでCan edit (編集可能)ロールを持っている必要があります。これに より、テーブルメタデータを使用してカタログを更新でき、ストレージ アセットがスペース内にデータファイルを作成できるようにします。 - ランディング データ アセットの所有者は、Enterprise Manager リソースが存在するスペースで [消費可能] ロールを持っている 必要があります。これは、Qlik Enterprise Manager にアクセスするために必要です。 - ストレージ アセットの所有者は、 クラウド ランディング エリアへのデータ接続を含むスペースで、[Can consume (利用可能)]、 [Can edit (編集可能)]、または [Can manage (管理可能)] のロールを持っている必要があります。
  • 59. 59 データスペースのロール • データ スペースのメンバーには、以下のデータ スペース ロールの1つ以上を割り当てることができます。 • メンバーがアプリケーションでデータアセットを使用するには、[Can consume (消費可能)」 ロールを所有している必 要があります。データ スペースのメンバーではないユーザーと共有されているデータスペースのデータアセットを使用する アプリは、アプリデータを表示できますが、データソースは表示できません。 データ スペース ロール 概要 Is owner (所有者) このメンバーは、スペース、スペース内のすべてのデータアセットとデータリソース、およびそのメンバーを管理できます。 閲覧可能 このメンバーはデータ アセットとデータ リソースを表示できますが、変更を加えることはできません。 消費可能 このメンバーは、データ スペース内のデータアセットからデータを消費できます。 管理可能 このメンバーはスペースの詳細とメンバーの管理ができます。 操作可能 このメンバーは、基本的な詳細を含むデータ アセットを表示し、実行、停止、再開などのアクションを実行できます。 編集可能 このメンバーは、このスペースのデータ アセットの表示と編集だけでなく、新しいデータアセットを作成できます。
  • 60. 60 ロールと権限のマトリクス • 以下ヘルプの表は、特定のロールを持つデータスペースのメンバーに付与される特定の権限の概要を示しています。 - データスペースのメンバーの権限 • 以下ヘルプの表は、データ スペース、データ スペース内のデータアセットおよびデータリソースに関して、特定のグローバ ル ロールを持つProfessional ユーザーに付与される特定の権限の概要です。 - グローバルロールを持つユーザーの権限
  • 63. 63 FAQ 質問 回答 スペース間でデータアセットを移動したり、データア セットの所有者を変更することは可能ですか? 現在、スペース間でのデータアセットの移動、所有者の変更はできません。 ランディングアセットにS3以外のBucketストレージを 使用することは可能でしょうか? 現在、AWS S3バケットの他、SnowflakeなどのクラウドDWHも利用可能です。 Qlik Enterprise ManagerとQlik Cloudの接続 には、組織のファイヤーウォールにポートを開く必要が ありますか? Enterprise ManagerとQlik Cloudプラットフォーム間の通信を確立するために、 ファイアウォールにポートを開く必要はありません。アウトバウンド通信は、Qlik Enterprise Managerによって開始されます。
  • 70. 70 Webセミナー過去動画 YouTubeのプレイリストをご覧ください。 YouTube プレイリスト: TECH TALK YouTube プレイリスト: Qlik Replicate 基礎から学ぶ勉強会 Qlik Japan Youtubeチャンネル チャンネルの登録 をお願いします。
  • 71. 71 「Qlik Sense 参考書」好評発売中 Qlik Sense ユーザーのためのデータ分析実践バ イブル ・判型:B5 変 ・総ページ数:~480 ページ程度 ・予価本体:4,200円 (+税) • QlikSpaceの記事をベースに、書籍用に大幅 にカスタマイズ&加筆 • 1 冊でQlik Sense の基本をマスターし(= 基本編)、ニーズの高い分析例(=応用 編)をできるだけ丁寧に紹介
  • 72. 72 その他の情報 セミナー動画・事例紹介 ・デモ・新機能紹介 Qlik Japan Youtube Qlik Community Japan 製品・技術Q&A、製品関連資料 Qlik Showcase 日本語アプリの公開 Qlik Japan Blog 製品・技術情報の公開
  • 76. 76 オンプレミスデータソースからのデータランディング • データ転送の最初のステップは、データのランディングです。これには、Qlik Replicate タスクを使用して、オンプレミス データ ソースからランディング エリアにデータを継続的に転送することが含まれます。レプリケーションタスクは、Qlik Cloud データサービスのデータ アセットのランディングによって制御されます。 • ランディング データ アセットを作成する前に: - レプリケーションタスクの作成 で説明されているように Qlik Replicate タスクを作成する必要があります。 - Qlik Enterprise Manager と Qlik Cloud を接続するには、Enterprise Manager リソースを追加する必要があります。こ れは、一度だけ実行する必要があるセットアップタスクです。 - また、Enterprise Manager リソースが存在するスペースで [消費可能] ロールを持っている必要があります。 • 注: タスクをランディングデータ アセットに関連付ける場合は、Qlik Replicate タスクを実行しないでください。ランディ ング データ アセットを初めて実行すると、Qlik Replicate タスクが再開されます。タスクが以前に Qlik Replicate から実行された場合、関連情報はすべて削除されて再作成されます。これには、ターゲット フォルダー、監査、ct テー ブルのデータが含まれます。
  • 77. 77 オンプレミスデータソースからのデータランディング • 2 種類のランディング エリアを使用できます。ランディング エリアは、Qlik Replicate タスクを作成するときに定義され ます。 - Amazon S3: データを Amazon S3 バケットにランディングすると、それを使用して Qlik Cloud で分析の準備ができた QVD テーブルを生成できます。 - クラウド データ ウェアハウス: データを Snowflake または Azure Synapse Analytics などのクラウド データ ウェアハウスにラン ディングすると、同じクラウド データ ウェアハウスにテーブルを保存できます。 • 2 種類の異なるモードでデータをランディングできます。モードは、Qlik Replicate タスクの作成時に設定されます。ラ ンディング データ アセットがカタログ化されると、モードの変更はできません。 - フル ロード & CDC: フル ロードでランディングを開始します。ランディング データは、CDC (データキャプチャの変更) テクノロジーを 使用すると、最新の状態が維持されます。CDC は、すべてのデータ ソースでサポートされていない可能性があります。 - フル ロードのみ: ランディングはソースからフルロードのみを実行します。これは、ソースが CDC をサポートしていない場合に役立ち ますが、サポートされている任意のデータ ソースで使用できます。リロードを定期的にスケジュールできます。 • 注:ランディング モードは、[データ アセットの管理] のリスト ビューの [タスクの種類] 列に表示されます。
  • 78. 78 ランディングデータアセットの作成および設定 • データサービス ホームで [新規追加] をクリックし、[データ アセットの作成] を選択します。 • [データ アセットの作成] ダイアログで、次のように入力します: - 名前: データ アセットのランディングの名前。 - スペース: データ アセットのランディングを作成するデータ スペース。 - アセット タイプ:[Qlik Replicate経由のランディング] を選択します。 • データサービス ホームでデータ アセットを簡単に検索できるようにタグを追加することができます。 • [開く] を選択して、作成されたときに、データ アセットのランディングを開きます。 • [作成] をクリックします。 • [Replicate タスクの選択] をクリックします。 • 使用する [Enterprise Manager リソース] を選択します。
  • 79. 79 ランディングデータアセットの作成および設定 • 使用するタスクを含む [Replicate サーバー] を選択します。特定のサーバまたは [すべて] を選択できます。サー バーを選択すると、使用可能なレプリケーションタスクのリストが表示されます。 • 注] レプリケーションタスクが使用可能になるには、レプリケーションタスクの作成 での説明に従って作成されている必 要があります。 • レプリケーションタスクを選択します。 • [選択] をクリックします。 • [保存] をクリックします。
  • 80. 80 ランディングデータアセットの作成および設定 • データ アセットのクラウドランディングが作成され、データ アセットがまだカタログ化されていないことを示し、ステータスが [Ready to run] になります。 • 次のいずれかを実行できます: - レプリケーションを開始するデータ アセットのクラウドランディングを実行します。アセットもカタログ化されます。 - データ アセットのクラウドランディングをカタログ化します。これにより、データ転送を開始することなく、データ アセッ トのクラウドランディングをストレージのデータ アセットのソースとして使用できるようになります。[カタログ] をクリック して、データ アセットをカタログ化します。データ アセットをカタログ化した時点では、以下の変更を行うことはでき ません。 • テーブルの選択やデータ アセットの構造に影響を与えるソースデータの変更。 • ターゲットフォルダの変更。 • ランディング モードを変更する、つまり CDC をオンまたはオフにします。 • このような変更を行うには、データ アセットと、それを使用して既にカタログ化されているすべてのアセットを再作成する 必要があります。
  • 81. 81 ランディングデータアセットの作成および設定 • アセットが保存およびカタログ化されると、ステータスに [実行する準備ができました] と表示され、アセットが正常にカタ ログ化されたことが示されます。これで、次のことができます: - データ アセットテーブルの構造とメタ データをプレビューします。[テーブル] をクリックします。 - データ アセットを実行して、レプリケーションタスクを開始します。[実行] をクリックします。 - このデータ アセットのランディングに基づいて、データ アセットのストレージを作成します。 • [フルロード & CDC] モードでは、ストレージデータ アセットはランディングエリアのデータを分析可能なテーブル に変換します。 • [フル ロード] モードでは、データにアクセスするためのビューが作成されます。 - レプリケーションと変換は、データ アセットが実行されるまで開始されません。
  • 82. 82 フルロード&CDCでのランディングデータアセットの実行 • これで、データ アセットのランディングを実行できます。これにより、オンプレミスのデータ ソースからランディング エリアにデータを転送するレプ リケーション タスクが開始されます。 - [実行] をクリックしてデータのランディングを開始します。 • これでレプリケーションが開始され、関連する Qlik Replicate タスクが実行されているはずです。この間、データ アセットのステータスは [実行中] になります。まず、全データ ソースがコピーされ、次に変更が追跡されます。これは、変更が発見されたときに継続的に追跡お よび転送されることを意味します。これにより、ランディング エリアのランディングデータが最新の状態に保たれます。 • データサービス ホームでは、ランディングデータの更新ステータス、日時およびエラーになったテーブルの数の確認ができます。また、データ アセットを開き、[テーブル] タブを選択して、テーブルの基本的なメタデータ情報を確認することもできます。 • 進捗状況を詳細にモニターするには、Qlik Enterprise Manager でレプリケーションタスクを開き、[Monitor] ビューを選択します。 • すべてのテーブルがロードされ、最初の変更セットが処理されると、[Data is updated to (データ更新)] には、その時点までのソース の変更がデータ アセットで利用可能であることを示します。 • Qlik Cloud Landing (Amazon S3) を使用すると、テーブルをリロードすると、全ロードの新しいコピーが作成されます。これは、ラン ディングアプリが変更を問題なく読み取っている間にテーブルをリロードできることを意味します。
  • 83. 83 フルロードでのランディングデータアセットの実行 • ランディング データ アセットを使用して、データをロードできるようになりました。 - [データのロード] をクリックして、フル ロードを開始します。 • これでレプリケーションが開始され、関連する Qlik Replicate タスクが実行されているはずです。この間、データ アセットのステータスは [実行中] になります。フル データ ソースがコピーされると、ステータスは完了になります。 • データサービス ホームでは、ランディングデータの更新ステータス、日時およびエラーになったテーブルの数の確認ができます。また、データ アセットを開き、[テーブル] タブを選択して、テーブルの基本的なメタデータ情報を確認することもできます。 • 進捗状況を詳細にモニターするには、Qlik Enterprise Manager でレプリケーションタスクを開き、[モニター] ビューを選択します。 • すべてのテーブルがロードされると、[Data is updated to (データ更新)] には、その時点までのソースの変更がデータ アセットで利用 可能であることを示します。ただし、データ アセットの一部のテーブルは、ロードを開始した時期に応じて、後の時間に更新することができ ます。これは、データの一貫性が保証されていないことを意味しています。例えば、08:00にロードを開始して4時間かかった場合、ロード が完了すると、[Data is updated to (データ更新)] に 08:00 と表示されます。ただし、11:30 にリロードを開始したテーブルには、 08:00 から 11:30 の間に発生したソースの変更が含まれます。 • [Data is updated to (データ更新)] は、正常にロードされたテーブルのみを反映します。テーブルのリロードが失敗したことを示すもの ではありません。クラウド ターゲットでは、すべてのテーブルにエラーが発生してリロードが完了した場合、項目は空になります。
  • 84. 84 フルロードのみ使用時のデータのリロード • CDC を使わずにフルロードで使用する場合は、データ ソースに合わせてデータを再読み込みする必要があります。 - [リロード] をクリックして、データの手動リロードを実行します。 - スケジュールされたリロードを設定します。 • ランディング データ アセットがリロードされている間、ランディング データ アセットを消費するストレージ データ アセットの ビューは使用できません。リロード中は、部分的なデータがロードされる可能性があるため、次の操作はお勧めしません。 - ストレージ データ アセットをクエリする。 - ストレージ データ アセットからデータをリロードする。 • ランディング データ アセットのリロードスケジュールを計画するときは、これを考慮してください。
  • 85. 85 ランディングデータアセットのリロードのスケジュール • データ アセットのスペースで [操作可能] の役割がある場合は、ランディング データ アセットの定期的なリロードをスケ ジュールできます。スケジュールをアクティブにするには、データ アセットのステータスが少なくとも [実行する準備ができ ました] である必要があります。 - データ アセットが開いたら、[リロードのスケジュール] をクリックします。 • 注: スケジュールされたリロードが開始されようとしているときにデータ アセットがまだリロードされている場合、スケジュー ルされたリロードは次のスケジュールされたリロード イベントまでスキップされます。 • 注: データ アセットのリロード スケジュールは 管理コンソール で監視できます。
  • 86. 86 ランディング データ アセットの操作 • アセットメニューから、ランディング データ アセットに対して次の操作を実行できます。 - 開く: これにより、ランディング データ アセットが開きます。テーブル構造とデータ アセットの詳細を表示できます。 - 編集: アセットの名前と説明を編集したり、タグを追加したりできます。 - 停止: データ アセットの操作を停止できます。これにより Replicate タスクが停止し、ランディングエリアは変更されたデータで更新 されません。リロード スケジュールのあるフル ロードのデータ アセットを停止すると、現在のリロードのみが停止されます。データ アセッ トのステータスが 停止 の場合、またアクティブなリロード スケジュールがある場合、次のスケジュールされた時刻に再びリロードされま す。スケジュールされたリロードを停止するには、スケジュールのリロード のリロード スケジュールをオフにする必要があります。 - 再開: データ アセットは停止したところから操作を再開できます。これにより、Replicate タスクの操作も再開されます。 - リロード: フル ロードモードで、データ アセットの手動リロードを実行できます。 - リロードのスケジュール: [フル ロード] モードで、ランディング データ アセットのスケジュールされたリロードを設定できます。月間、週 間、毎日、1 時間ごとのスケジュールを設定でき、カスタマイズも可能です。スケジュールされたリロードはオンまたはオフにすることも できます。リロードをスケジュールするには、データ アセットのスペースで操作可能ロールを保持することが必要です。 - 削除: データ アセットを削除できます。次のオブジェクトは削除されないため、手動で削除する必要があります。 • ランディング エリアのデータ • Qlik Enterprise Manager のレプリケーション タスク
  • 87. 87 ランディング データ アセットの操作 • タスクが [フル ロード&CDC] モードのときにテーブルのリロードを除いて、Qlik Enterprise Manager からタスクを 操作しないことをお勧めします。
  • 88. 88 Qlik Replicateタスクの[ターゲットのリロード]の操作 • [フル ロード & CDC] モードでデータ アセットをランディングさせるために、Qlik Replicate タスクで [ターゲットのリ ロード] 操作を実行できます。データの損失を避けるために、このタスクから読み込まれたランディング データ アセットと ストレージ データ アセットを削除して再作成する必要があります。 - Replicate タスクがまだ停止していない場合は、停止します。 - ランディング データ アセットとストレージ データ アセットを削除します。 - Qlik Enterprise Manager の [ターゲットのリロード] をクリックします。 - Replicate タスクを使用して新しいランディング データ アセットを作成します。 - ランディング データ アセットを使用する、新しいデータ アセットのストレージを作成します。 - 新しいデータ アセットのランディングの実行 - 新しいストレージ アセットを実行します。 - 注: Qlik Enterprise Manager の [フル ロード & CDC] Replicate タスクで [テーブルのリロード] を実行することもできます。 この場合、データ アセットを再作成する必要はありません。
  • 89. 89 ランディングエリアのメンテナンス • ランディングエリアの自動クリーンアップはサポートされていません。これはパフォーマンスに影響する可能性があります。 • 古いフル ロードの手動クリーンアップを実行し、ランディング エリアのデータを変更することをお勧めします。 - Amazon S3: フルロードデータのフォルダが複数ある場合は、最新のフォルダを除くすべてを削除できます。処理された変更データ パーティションを削除することもできます。 - クラウド データ ウェアハウス: 処理されたフル ロードと変更テーブル レコードを削除できます。
  • 91. 91 Qlik CloudとQlik Enterprise Managerの接続 • ランディングデータのレプリケーションタスクを制御できるようにするためには、Qlik Cloud と Qlik Enterprise Manager を接続する必要があります。これは、一度だけ実行する必要があるセットアップタスクです。 • Qlik Enterprise Manager は、単一の Qlik Cloud テナントのみに接続できます。Qlik Cloud 内のリモート Enterprise Manager リソースには、接続されている Enterprise Manager マシンに関する情報は一切含まれ ていません。 • 接続は Enterprise Manager 側で開始されます。開始されると、チャネルは保護され、双方向になります。
  • 92. 92 Qlik CloudとQlik Enterprise Managerの接続 • これは、次の3つの手順で実行します。 - Enterprise Manager で登録キーを作成します。 • 注: これを行うには、Qlik Enterprise Manager の Enterprise Manager レベルの管理者権限が 必要です。 • 右上の Qlik Enterprise Manager メニューバー右上の[設定]アイコン をクリックします。 • [Qlik Cloud Connection] タブをクリックします。 • Qlik Cloud テナントのアドレスを入力します。 例: https://mytenant.qlikcloud.com • [Create New Registration key] をクリックします。 • [View and Copy Registration key...] をクリックして、キーをコピーします。 - 登録キーを使用して、Qlik Cloud テナントにリモート Enterprise Manager リソースを作成します。 • 注: これを行うには、テナント管理者になる必要があります。テナント管理者でない場合は、テナント管理 者に依頼してリモート Enterprise Manager リソースを作成します。 • Qlik Cloud テナントで、データサービス ホームに移動します。ランチャーメニューで [データ サービス] をク リックします。
  • 93. 93 Qlik CloudとQlik Enterprise Managerの接続 • これは、次の3つの手順で実行します。 - (続き)登録キーを使用して、Qlik Cloud テナントにリモート Enterprise Manager リソースを作成します。 • リソースのユーザーに[消費可能 (Can consume)]ロールが割り当てられたスペースに、リソースを登録する必要があります。 • ユーザーが [Can consume (消費可能)] ロールを持つ既存のスペースに移動するか、次を行います: • [新規追加] をクリックして、 [データスペースの作成] を選択して、データスペースを作成します。スペースの名前を入力し、 [作成] をクリックします。リソースにアクセスする必要があるユーザーに、[Can consume (消費可能)] ロールを割り当てま す。 • [データ リソース] をクリックします。 • [リモート Enterprise Manager リソースの追加] をクリックします。 • リソースの表示名と説明を入力します。 • 注: リソースが接続されている Enterprise Manager サーバーを識別できるように、リソースの名前と説明を選択すること をお勧めします。リソースには Enterprise Manager サーバーを識別するその他の情報は含まれません。 • 登録キーを [登録キー] に貼り付けます。 • [作成] をクリックします。これで、リソースは Qlik Cloud に作成されましたが、Enterprise Manager で接続を確立する必 要があります。
  • 94. 94 Qlik CloudとQlik Enterprise Managerの接続 • これは、次の3つの手順で実行します。 - (続き) Enterprise Manager で接続を確立します。 • Enterprise Manager メニューバーで[設定] をクリックします。 • [Qlik Cloud Connection] タブをクリックします。 • [Connect] をクリックします。
  • 95. 95 Qlik CloudとQlik Enterprise Managerの接続 • これで、Enterprise Manager サーバーは Qlik Cloud テナントと接続されました。ダイアログに、[接続済み] ス テータスが表示され、接続された Qlik Cloud テナントに関する情報が表示されます。 • Qlik Cloud テナントで接続を確認できます。Enterprise Manager リソースを作成したスペースで [データリソー ス] にチェックします。作成したリソースのステータスが [接続済み] になります。 • 接続が確立されると、QlikQCSConnectionBroker という名前のユーザが Enterprise Manager 内に自動 的に作成されます。ユーザには Enterprise Manager レベルでの管理権限が付与されます。Qlik Cloud から Enterprise Manager への要求はすべてこのユーザによって行われます。Enterprise Managerでこのユーザーの 権限を変更した場合、Qlik Cloudで失敗を引き起こす可能性があるため、推奨しません。
  • 96. 96 接続のトラブルシューティング • 接続状態が 切断されました と表示されている場合: - Enterprise Manager と Qlik Cloud の間のネットワーク接続が機能していることを確認します。 - Qlik Cloud テナントの Enterprise Manager リソースが有効になっていることを確認します。 - Qlik Cloud テナントへの接続が Enterprise Manager で有効になっていることを確認します。 • ネットワークが稼働し、リソースが有効になっていることが確認できたら、Qlik Enterprise Manager 設定の [Qlik Cloud Services] タブにある [再試行] をクリックしてください。 • [再試行]をクリックしても [接続済み] にならない場合: - Qlik Enterprise Manager 設定の [Qlik Cloud Services] タブにある 登録キー > 新規作成 をクリックします。 - [登録キーの確認とコピー...] をクリックして、キーをコピーします。 - Qlik Cloud に移動し、[データ リソース] でリソースを開きます。[登録キーの更新] をクリックしてキーを貼り付け、[更新] をクリッ クします。
  • 98. 98 レプリケーションタスクの作成 • レプリケーションタスクを作成して、オンプレミスのデータソースからクラウドのランディング領域にデータを継続的にランディ ングする必要があります。Qlik Enterprise Manager でレプリケーション タスクを作成します。 • 開始する前に、すべてのソース データ要件が満たされていることを確認してください。ソースデータの要件については、 サポートされているデータ ソース を参照してください。 • どのランディング モードを使用するかを決定する必要もあります。 - フル ロードと変更の保存: フル ロードでランディングを開始します。ランディング データは、CDC (データキャプチャの変更) テクノロ ジーを使用すると、最新の状態が維持されます。CDC は、すべてのデータ ソースでサポートされていない可能性があります。 - フル ロード: ランディングはソースからのみフル ロードを実行します。これは、ソースが CDC をサポートしていない場 合に役立ちますが、サポートされている任意のデータ ソースで使用できます。リロードを定期的にスケジュールでき ます。
  • 99. 99 クラウド ランディング ターゲット • 次のクラウド ランディング ターゲットがサポートされています。 • Qlik Cloud Landing (Amazon S3) - このターゲットを使用すると、Qlik Cloud でQVD テーブルを生成できます。他のクラウド ターゲットにデータを配信することはできま せん。 • Snowflake on AWS、Snowflake on Azure、Snowflake on Google - これらのターゲットを使用してデータをランディングすると、テーブルとビューを Snowflake に配信できます。 • Microsoft Azure Synapse Analytics - このターゲットを使用してデータをランディングすると、テーブルとビューを Azure Synapse Analytics に配信できます。
  • 100. 10 0 タスクの作成 • レプリケーション タスクは、Qlik Enterprise Manager で作成できます。 • [New Task] をクリックしてレプリケーションタスクを作成します。 • [New Task]ダイアログで、タスクの名前を与えます。 • Replication Profileに以下を設定します。 - Qlik Cloud Landing • タスクを作成する Qlik Replicate サーバーを選択します。 • 使用するランディング モードを選択します。 - CDC 変更処理を使用する場合は、[Full Load] と [Store Changes] を選択します。 - フル ロードのみを使用する場合は、[Full Load] を選択します。 • [OK] をクリックしてタスクを作成します。
  • 101. 10 1 タスクの作成 • CDC で Qlik クラウド ランディング (Amazon S3) ターゲットを使用する場合のみこの手順を行います: - 注: フルロードのみのタスクを作成する場合は、このステップをスキップします。 - [Task Settings] をクリックして、[Change Processing] > [Store Changes Settings] ページの順に選択します。 - [Change Data Partitioning] の設定を [オフ] から [...ごとに分割] に設定し、間隔を空けます。間隔は 15 分以上である必要があり ます。[Change Data Partitioning] の次の設定では、既定値を維持する必要があります。 • Store Changes in • [Change Table Settings] > [Suffix:] • [Change Table Settings] > [Header column prefix:] • Select Change Table Header Columns - 完了したら、[OK] をクリックします。 • 既存のソース エンドポイントがある場合は、次のステップにスキップできます。それ以外の場合は、[Manage Endpoint Connections...] をクリックし、[New Endpoint Connection] をクリックしてソース エンドポイントを作成する必要があります。[Test Connection] をクリックすると、接続が行われていることを確認できます。完了したら、[Save] をクリックし、[Close] をクリックします。
  • 102. 10 2 タスクの作成 • ソース エンドポイントをタスクマップの上の円 (ここにソースエンドポイントをドロップしてください の文字) にドラッグします。 • [Manage Endpoint Connections...] をクリックし、[New Endpoint Connection] をクリックして、クラウドランディングエリアに ターゲット エンドポイントを作成します。 • 接続の詳細を次に設定します: - ロール: Target - タイプ: Qlik Cloud Landing (Amazon S3)、Microsoft Azure Synapse Analytics、Snowflake on AWS、 Snowflake on Azure、またはSnowflake on Google - 注: 2 つの Qlik Replicate タスクをランディング エリア内の同じテーブルに書き込まないようお勧めします。ベスト プラクティスは、各 Qlik Replicate タスクに個別のランディング エリアを使用することです。
  • 103. 10 3 タスクの作成 • クラウド ランディング エリアにアクセスするために必要な情報を追加します。これには、アクセス オプションと資格情報が含まれます。サポー トされているターゲットの設定の詳細については、Qlik Replicate オンライン ヘルプの次のページを参照してください。 - Qlik クラウド ランディングをターゲットとして使用(英語のみ) • [ターゲットフォルダ] を設定することで、データをコピーするフォルダを選択できます。別のレプリケーション タスクと同じフォルダを使用しないでく ださい。 • 注: [データ暗号化] のデフォルトは Amazon S3-Managed Keys ですが、バケットが WS KMS-Managed Keys を使用する場合 は変更できます。 - AWS で Snowflake をターゲットとして使用(英語のみ) - Azure で Snowflake をターゲットとして使用(英語のみ) - Google で Snowflake をターゲットとして使用(英語のみ) - Microsoft Azure Synapse Analytics をターゲットとして使用(英語のみ) - [Test Connection] をクリックして、接続が行われていることを確認します。 - 完了したら、[Save] をクリックし、[Close] をクリックします。 • ターゲット エンドポイントをタスクマップの上の円 (ここにターゲット エンドポイントをドロップしてください の文字) にドラッグします。
  • 104. 10 4 タスクの作成 • [Table Selection...] をクリックして、クラウドランディングエリアに配置するテーブルを選択します。 • 完了したら [OK] をクリックします - 注: タスクの実行時にソース テーブルと変更テーブルに適用されるグローバル変換を定義できます。次のグローバル変換はサポートされていません。 • 変更テーブルの名前を変更 • 変更テーブルの名前を変更 スキーマ • [Save] をクリックしてレプリケーションタスクを保存します。 • これで、レプリケーションタスクが作成され、Qlik Cloudのデータアセットのランディングで使用できるようになりました。ランディング データ ア セットの作成方法の詳細については、オンプレミス データ ソースからのデータのランディング を参照してください。 • 注: タスクをランディング データ アセットに関連付ける場合は、Qlik Replicate タスクを実行しないでください。ランディング データ アセッ トを初めて実行すると、Qlik Replicate タスクが再開されます。タスクが以前に Qlik Replicate から実行された場合、関連情報はす べて削除されて再作成されます。これには、ターゲット フォルダー、監査、ct テーブルのデータが含まれます。
  • 106. 10 6 クラウドデータソースからのデータランディング • データ転送の最初のステップは、データのランディングです。これは、Qlik Cloudのデータ接続を使用して、クラウドデー タソースからランディングエリアに継続的にデータを転送することです。 • ランディングエリアとしてAmazon S3バケットを必要とせず、直接Snowflakeにデータをランディングすることができま す。ランディングはソースからのフルロードのみを実行しますが、定期的に再ロードをスケジュールすることができます。
  • 107. 10 7 ランディングデータアセットの作成と設定 • データサービスホームの[新規追加]をクリックし、[データアセットの作成]を選択します。 • データアセットの作成ダイアログで、以下を入力します。 - 名前: ランディングデータアセットの名前 - スペース: ランディングデータアセットを作成するデータスペース - アセットタイプ: ランディング - データサービスホームでデータアセットを見つけやすくするために、タグを追加することができます。[開く]を選択して、ランディングデー タアセットを作成時に開きます。[作成]をクリックします。 • [ソースデータの選択]をクリックします。
  • 108. 10 8 ランディングデータアセットの作成と設定 • ソースデータのデータ接続を選択し、[次へ]をクリックします。左側のパネルにあるフィルターを使用して、接続のリストをソースの種類、ス ペース、および所有者でフィルターすることができます。ソースデータへのデータ接続がまだない場合は、最初に接続を作成する必要があり ます。 - [接続の追加]をクリックします。 - データソースを選択します。 - 接続の名前、データソースへのアドレス、認証情報、およびその他の必要な情報を入力します。これは、データソースの種類によっ て異なります。詳細については、サポートされるQlik Cloudデータソースを参照し、データソースのリンクに従ってください。 - [接続のテスト]をクリックし、正しい情報を入力したことを確認します。 - [作成]をクリックします。 • データアセットに含めるテーブルを選択し、各テーブルから含めるフィールドを選択します。デフォルトでは、すべてのフィールドが選択されてい ます。データ選択ダイアログは、データソースの種類によって異なるオプションを持つことがあります。データソースによっては、選択できるデー タ量に制限があるものもあります。たとえば、データソースによっては、一度に1つのテーブルしか選択できないものもあります。その場合は、 手順7で選択ダイアログに戻り、さらにテーブルを追加することができます。データソースの詳細については、サポートされるQlik Cloudデー タソースを参照し、データソースに進みます。準備ができたら、[終了]をクリックします。
  • 109. 10 9 ランディングデータアセットの作成と設定 • Landingのプロパティを設定します。Landing connectionでランディングエリアへの接続を選択します。ランディングエリアへのデータ接 続がない場合は、まず[+]をクリックして接続を作成する必要があります。データは以下のクラウドターゲットにデータを着地させることが できます。 - Snowflake • Data asset schemaをデータを保存するスキーマに設定します。デフォルトでは、Landing connectionで指定されたスキーマが使用 されます。テーブル名にプレフィックスを使用して、同じデータアセットスキーマを使用するデータアセット間の競合を解決します。自動生成 されたプレフィックスを維持するか、独自のプレフィックスを入力します。 • 注: [詳細設定]で、並行してロードするテーブルの最大数を設定することもできます。1から5までの値を設定することができます。 • 準備ができたら、[OK]をクリックします。 • 選択したデータアセットテーブルの構造とメタデータをプレビューします。データソースからさらにテーブルを追加する場合は、[テーブルの選 択]をクリックします。 • 注: データアセットで既に選択されているテーブルは表示されません。再度選択すると、重複して追加されます。 • 準備ができたら、[保存] をクリックします。
  • 110. 11 0 ランディングデータアセットの作成と設定 • [カタログ]をクリックして、データアセットをカタログ化します。これにより、データ転送を開始することなく、クラウドランディ ングデータアセットをストレージデータアセットのソースとして利用できるようになります。 • 注: データアセットをカタログ化すると、テーブルの選択やデータアセットの構造に影響を与えるようなソースデータの変 更を行うことができなくなります。このような変更を行うには、データ アセットとそれを消費するすべてのアセット(すでに カタログ化されているもの)を再作成する必要があります。
  • 111. 11 1 ランディングデータアセットの作成と設定 • アセットが保存され、カタログ化されると、ステータスにReady to runと表示され、アセットが正常にカタログ化されたこ とが示されます。これで、以下のことが可能になります。 - データ アセット テーブルの構造とメタデータをプレビューする。[テーブル]をクリックします。 - データ アセットを実行して、データのロードを開始します。[ロード]をクリックします。 - 定期的な再読み込みをスケジュールする。[リロードのスケジュール]をクリックします。 - このランディングデータアセットを基に、ストレージデータアセットを作成します。ストレージデータアセットは、ランディング領域のデータを 分析に適したテーブルとビューに変換します。ストレージデータアセットが実行されるまで、レプリケーションと変換は開始されません。 [ストレージデータアセットの作成]をクリックします。
  • 112. 11 2 サポートされるQlik Cloudデータソース • 以下のQlik Cloudデータソースに対応しています。
  • 113. 11 3 データ アセットのランディングの実行 • ランディングデータアセットを使ってデータを読み込むことができます。 - [ロード]をクリックして、フルロードを開始します。 • レプリケーションが開始され、関連するQlik Replicateタスクが実行されます。この間、データアセットのステータスは実行中となります。 データソース全体がコピーされると、ステータスはCompletedになります。 • データサービスホームでは、ステータス、ランディングデータが更新された日時、エラーとなったテーブルの数を確認することができます。また、 データアセットを開いて[テーブル]タブを選択すると、テーブルの基本的なメタデータ情報を表示することができます。 • すべてのテーブルが読み込まれると、データアセットカードの「Data is updated to」は、その時点までのソースの変更がデータアセットで 利用可能であることを示します。ただし、データアセットの一部のテーブルは、読み込みを開始した時刻によって、それ以降の時刻に更新 されることがあります。つまり、データの整合性は保証されません。例えば、08:00にロードを開始し、4時間かかった場合、Data is updated to はロードが完了した時点で08:00を表示します。しかし、11:30にリロードを開始したテーブルには、08:00から11:30ま での間に発生したソースの変更が含まれます。 • “Data is updated to ”は、読み込みに成功したテーブルのみ反映されます。リロードに失敗したテーブルについては、何も表示されま せん。クラウドターゲットでは、すべてのテーブルがエラーでリロードが完了した場合、このフィールドは空になります。
  • 114. 11 4 データのリロード • データをリロードして、データソースを最新の状態に保つ必要があります。 - [リロード]をクリックすると、データの手動リロードが実行されます。 - スケジュールされたリロードを設定できます。 • ランディングデータアセットを消費するストレージデータアセットのビューは、ランディングデータアセットがリロードされている間は使用できませ ん。リロード中は、データが部分的にロードされる可能性があるため、次の操作は推奨されません。 - ストレージデータアセットにクエリを投げる - ストレージデータアセットからデータをリロードする • ランディングデータアセットのリロードスケジュールを計画するときに、上記を考慮してください。 • ランディングデータアセットのリロードスケジュール • データアセットのスペースで[Can operate (操作可能)]ロールがある場合、ランディングデータアセットの定期的なリロードをスケジュー ルできます。スケジュールを有効にするには、データアセットのステータスが少なくとも [実行準備完了] である必要があります。 - データ アセットが開かれているときに、[リロードのスケジュール] をクリックします。 • 注: スケジュールされた再読み込みが開始されようとしているときにデータ資産がまだ再読み込み中である場合、スケジュールされた再読 み込みは次のスケジュールされた再読み込みイベントまでスキップされます。
  • 115. 11 5 ランディングデータアセットに対する操作 • ランディングデータアセットに対して、アセットメニューから以下の操作を行うことができます。 - 開く: ランディングデータアセットを開きます。テーブルの構造やデータアセットの詳細を見ることができます。 - 編集: アセット名や説明文を編集したり、タグを追加したりすることができます。 - 停止: データアセットの操作を停止することができます。これにより、ランディングエリアが変更されたデータで更新されなくなります。リ ロードスケジュールのあるデータアセットを停止すると、現在のリロードだけが停止されます。データアセットのステータスが”停止”で、ア クティブなリロードスケジュールがある場合、次のスケジュール時刻に再びリロードが行われます。スケジュールされたリロードを停止す るには、[リロードのスケジュール]でリロードのスケジュールをオフにする必要があります。 - レジューム: データアセットの操作を停止したところから再開することができます。 - リロード: フルロード専用モードで、データアセットを手動でリロードすることができます。 - 削除: データアセットを削除することができます。ランディングエリアのデータは削除されませんので、手動で削除する必要があります。
  • 118. 11 8 テーブルの生成と保存 • ストレージデータアセットを使用してテーブルを生成できます。ストレージデータアセットは、ランディングデータアセットによってクラウドランディ ングエリアにランディングされたデータを消費します。生成したテーブルを例えば、分析アプリで使用できます。 • ランディングデータアセットを選択して、使用するランディングデータを定義します。ランディングデータアセット内のテーブルの部分選択をする ことはできません。 - Qlik Replicate を介してデータを Amazon S3 バケットにランディングした場合は、Qlik Cloud に管理されているストレージまたは自分が 管理している Amazon S3 ストレージに QVDテーブルを生成できます。 - Qlik Replicate を介して Snowflake や Azure Synapse Analytics などのクラウドデータウェアハウスにデータをランディングした場合は、 同じクラウドデータウェアハウスにテーブルを生成できます。 • ランディングデータアセットはカタログ化されている必要があります。つまり、次のステートのデータアセットは使用できません。 - New - アセットがカタログ化されていない [Ready to run] • ストレージデータアセットは、消費されたランディングデータアセットと同じ操作モード ([フル ロード] または [フル ロード & CDC]) を使用 します。構成プロパティは、2つの操作モード間、および監視オプションと制御オプションで異なります。フルロードのみでクラウドターゲットラ ンディングデータアセットを使用する場合、ストレージデータアセットは、物理テーブルを生成する代わりに、ランディングテーブルへのビューを 作成します。
  • 120. 12 0 QVDストレージデータアセットを変更処理で作成 • データサービス ホームでストレージデータアセットを作成します。ストレージデータアセットは、Amazon S3 バケットからデータをピックアップ し、QVD テーブルに変換して保存します。テーブルは、Qlik Cloud が管理するストレージや自分が管理するストレージに保存すること ができます。データは、オンプレミスのデータソースから継続的に更新されます。 - Data Integration ホーム で [新規追加] をクリックし、[データアセットの作成] を選択します。 - [データアセットの作成] ダイアログで、次のフィールドに入力します: • 名前:データアセットの名前。 • スペース:データアセットの保存先スペースを指定します。 • アセット タイプ:ストレージ (QVD) を選択します。 • [開く] を選択して、作成されたときに、データアセットを開きます。 - 準備ができたら、[作成] をクリックします。 - [ソース データの選択] をクリックします。 - ストレージデータアセットのソースとして使用するランディングデータアセットを選択し、 [選択] をクリックします。タスク タイプが [フル ロード + CDC] の Amazon S3 ランディング データ アセットを選択します。タスク タイプがリスト ビューに表示されます。[ソースと ストレージの設定] ダイアログが表示されます。
  • 121. 12 1 QVDストレージデータアセットを変更処理で作成 • (続き) - ソース: ランディングデータアセットで使用する Amazon S3 バケットへのデータ接続を選択します。これは、Replicate タスクの対 象エンドポイントで定義されているバケットと同じです。接続は、Qlik Cloud テナントからの読み取りアクセスを使用する必要があり ます。データ接続が無い場合、作成する必要があります。詳細については、[Amazon S3(英語のみ)] を参照してください。 - ストレージ: QVD テーブルを保存する場所を選択します。 • Qlik マネージドストレージ • クライアントマネージドストレージ: 自分で管理する Amazon S3 に QVD テーブルを保存することができます。ストレージに使 用する Amazon S3 バケットへのデータ接続を選択します。接続は、Qlik Cloud テナントからの書き込みアクセスを使用する 必要があります。データ接続が無い場合、作成する必要があります。詳細については、[Amazon S3(英語のみ)] を参照して ください。 - 使用するフォルダ: QVD テーブルを保存する時に使用するフォルダーを選択します。フォルダが存在しない場合は、データ アセット を実行したときに作成されます。[ルート] を選択すると、QVD テーブルをバケットのルートに保存できます。[顧客管理ストレージ] を選択した場合、フォルダ名は Amazon S3 の命名ガイドラインに従って有効である必要があります。 • 注: 別のデータ アセットと同じフォルダを使用しないでください。これにより、2 つのデータ アセットが相互に QVD テーブルを上書 きする可能性があります。
  • 122. 12 2 QVDストレージデータアセットを変更処理で作成 • (続き) - [OK] をクリックして設定を確認します。QVD テーブルの生成を開始する前に、テーブルの構造をプレビューできます。 - [保存] をクリックしてデータアセットを保存します。 - [実行] をクリックしてQVD テーブルの生成を開始します。 • 実行中のデータアセットのランディングを使用して、既にランディングデータのフルロードを実行している場合、QVDテーブルが生成されます。 • 注: 各テーブルに最初のバッチを実行すると、行の更新時刻を含む 「タイムスタンプ」 という名前の新しいカラムがテーブルに追加されます。 • 初回のロードが完了する前の変更バッチがある場合は、初回のロードが完了して変更の最初のバッチが適用されるまで、アセットカード内 のデータは更新されません。 • 例えば、100 万件の注文を含む注文テーブルと 1,000 万件の注文詳細を含む注文詳細テーブルを含むデータ アセットをロードするとし ます。テーブルは、フルロードを実行するのにそれぞれ 10 分と 20 分かかります。注文テーブルが最初にロードされ、次に注文の詳細が ロードされます。注文テーブルのロード中に、新しい注文が挿入されました。そのため、注文の詳細がロードされると、注文テーブルにまだ存 在しない新しい注文の詳細が含まれている可能性があります。変更の最初のバッチが適用された後でのみ、注文と注文テーブルが同期さ れ、同じ時間に完全に更新されます。 • QVD テーブルは Qlik Sense ハブの [カタログ] の下にあります。データセットを表示するには、[タイプ] の [データ] を選択します。
  • 123. 12 3 テーブルの生成のモニタリング • [モニター] をクリックすると、テーブルの生成のステータスと進行状況を監視することができます。最初のロードが実行されているときは、[フ ル ロード ステータス] で進行状況を表示できます。変更が処理されると、[変更の最後のバッチ] のステータスと進行状況を表示すること もできます。 • 各テーブルまたは変更について、次の詳細を表示できます。 - 状態: これは、このテーブルまたは変更の現在の状態を示しています。 • 完了 - ロードまたは変更が正常に完了しました。 • ロード中 - テーブルまたは変更が処理されています。 • キューに登録済み - テーブルまたは変更が処理されるのを待機しています • エラー - テーブルまたは変更の処理中にエラーが発生しました。 - 開始: ロードまたは変更処理が開始された時間。 - 終了: ロードまたは変更処理が終了した時間。 - 期間: hh:mm:ss の形式でのロードまたは変更処理の期間。 - 処理済みレコード: ロードまたは変更で処理されたレコードの数。 - スループット (記録/秒): ロードが完了するまで、スループットは更新されません。 - メッセージ: ロードまたは変更が正常に処理されなかった場合にエラー メッセージを表示します。