SlideShare une entreprise Scribd logo
1  sur  159
Télécharger pour lire hors ligne
© 2019 QlikTech International AB. All rights reserved.
Qlik Gold Client
テクニカルDeep-Diveセッション
クリックテック・ジャパン株式会社
© 2019 QlikTech International AB. All rights reserved.
2
アジェンダ  概要
• トップ画面
• データタイプとは
• データコピーの概要
 Client Construct
• Client Exporter
• Client Importer
 Data Echo
• Data Snap
• Data Snapのカスタマイズ
• Intelligent Snap
• Intelligent Snapのカスタマイズ
• Export Control
• Import Control
• Adjust Data Rangeを使った定期的なコピーのスケジューリング
 Post Process
• Number Rangeユーティリティ
 Data Transform
 Delete Data
 データタイプのカスタマイズ
• Client Construct
• Data Echo
• Installation Setupによるデータタイプのカスタマイズ
3
概要
4
トップ画面
5
トップ画面 (t-code: zgold)
条件に従ってデータのサブセットを切り出
し、システム間でデータ移行を行うツール
マスターデータの移行を行うツール
クライアント環境構築やレポジトリ
データの移行を行うための補助ツール
データの匿名化を行うためのデータ内容
の変換ツール
ターゲットシステムにインポートされた
データを削除するツール
Gold Clientの設定メニュー
6
トップ画面 (t-code: zgold)
本番 開発、検証、
トレーニング/サンドボックス
ライセンス登録時にSAP本番システムのSID(システムID)を登録し、Gold
Clientを本番システムに導入した場合、データ削除・変更を伴うオペレーションが
実施できないセーフガードが適用されます。
7
• マスタデータ
• トランザクションデータ
• レポジトリオブジェクト
• クライアント非依存データ
③ Gold Client
ターゲットクライアント
基本セットアップの流れ
本番
① ターゲットクライアントの作成
• SCC4を利用して新クライアントを作成します。
• SCC8を利用してプロファイルSAP_UCSV(カスタマイズ、ユーザーマスターレ
コード、ユーザーバリアント)をエクスポートします。
• STMSを使用してターゲットクライアントに構成をインポートします。
• トランザクションSCC7を使用してインポートの後処理を実行します。
② 共有フォルダのセットアップ
• Gold Clientは、マスター・データとトランザクションデータを圧縮ファイルでコピー
します。
• これらのファイルは、ソースシステムとターゲットシステムの両方に共通するディレ
クトリに保存し、アクセスする必要があります。
③ ソースとターゲットシステムでのGold Clientのセットアップ
• トランスポート(移送)を適用してGold Clientソフトウェアを導入します。
• 名前空間/HTG/のオブジェクトのみが含まれ、標準的なSAPオブジェクトに
影響を与えません。
• t-code: FILEを使用して、/HTG/GCのLogical PathにGold Clientの
共有フォルダを割り当てます
④ Gold Clientを利用してマスタ、トランザクションデータの移行
開発、検証、
トレーニング/サンドボックス
② 共有フォルダ
④ マスタ、トランザクション
データの移行
• カスタマイズ(クライアント依存)
• ユーザーマスタレコード
• ユーザーバリアント
• マスタデータ
• トランザクションデータ
• レポジトリオブジェクト
• クライアント非依存データ
③ Gold Client
本番クライアント
① ターゲットクライアント
の作成
Client Copy
(Export/Import)
GC GC
• カスタマイズ(クライアント依存)
• ユーザーマスタレコード
• ユーザーバリアント
8
データタイプとは
9
データタイプ(Data Type)とは?
• 「データタイプ (Data Type)」とは、複数のSAPテーブルなどをグループ化して含む定義になります。
• Gold Clientには事前定義されたマスターデータ、トランザクションデータのデータタイプが含まれます。
• データタイプを追加したりや、変更(アドオンテーブルの追加など)を行うことが可能です。
データタイプ
データタイプに
含まれるテーブル一覧
フィールドリンク:
テーブル間のリレーション定義
• Sourceテーブル(親テーブル)に対して、フィールドリ
ンクに基づき親子関係リレーションが定義されます。
• 親子関係は3階層まで定義が可能です。
10
データタイプのリンク(Linkage)とは?
• データタイプは、他のデータタイプと「リンク(Linkage)」することができます。
• リンクすることにより、他のデータタイプに含まれる依存するデータをコピーの対象に含めることができます。
• データリンクは追加・削除、有効化・無効化を行うことができます。
データタイプのリンク定義
リンク先のデータタイプ一覧
リンクのリレーション定義
SD – SALES DOCUMENTS
MM–MATERIAL DOCUMENTS
SD-BILLING DOCUMENTS
・
・
・
・
テーブル
Data Type
リンク(Linkage)
11
データタイプの階層
• データタイプ間のリンクにより、階層構造が作成され、この階層に従ってデータコピーが行われます。
• データタイプの階層はトップダウンのモデルで作成されます。
12
データタイプのデータコピーへの適用
「SD – Sales Documents」の
Data Typeを利用して、伝票番
号11547の受注伝票を本番から
ターゲットシステムに移行した例
本番からターゲットにコピーされた
11547の受注伝票
受注伝票だけでなく、それに紐付く出荷伝票、請
求書、会計伝票(及び付随するマスタデータ
等)も含めてターゲットに移行されます。
13
Data Echoの「プライマリ・データタイプ」とは?
• 階層の上位に位置し、利用頻度の高いデータタイプが「プライマリ (Primary)」として定義されています。
• 依存データをコピーするために、 プライマリ・データタイプを利用することがベストプラクティスとして推奨されます。
• 約20のデータタイプがGold Clientの標準でプライマリに定義されており、追加を行うことも可能です。
Primary Data Typeを選択
すると一覧を表示
「Primary」フラグをONにす
ることでPrimaryとして指定
Primary Data Typeの一覧
14
データタイプ設定:Client Construct
データタイプ(Gold Clientに標準
搭載)の一覧を表示
例えば「CUSTOMER MASTER」のデータタイプ
を選択すると、そのタイプに属する全てのテーブル
が定義に含まれていることを確認できます。
• [Configuration] > [Client Construct]からClient Constructのデータタイプ設定画面を開くことができます。
• Client Constructはマスタデータのみを対象。約95のマスターデータタイプが事前定義され、カスタムで追加も可能。
15
データタイプ設定:Data Echo
• [Configuration] > [Data Echo]からData Echoのデータタイプ設定画面を開くことができます。
• マスター・トランザクションデータのデータタイプが事前定義されて提供されます。
データタイプの表示対象を選択し
て一覧を表示
16
データコピーの概要
17
エクスポートの方法:Client ConstructとData Echo
• データエクスポートを行う方法は、以下の2種類に大きく分けられます。
Client Construct Data Echo
マスターデータのみをコピー マスタデータ、トランザクションデータをコピー
テーブル内のすべてのデータをコピー テーブル内のデータのサブセットをコピー
クライアントのリフレッシュの際に、空のク
ライアントにマスタデータを投入する際な
どに利用
一定の期間範囲や条件のトランザクション
データをコピーする際に利用
Qlik ABAPコードや、SAP R3Transを
利用してエクスポートを実行
Qlik ABAPコードを利用してエクスポートを実
行
BASISチームによって処理を実行 BASISチーム、もしくはアプリケーションチーム
によって処理を実行
18
Data Echoのデータエクスポート
• Data Echoには以下の3種類の方法があります。
方法 説明
Data Snap • 1度のエクスポートを、1つのデータタイプを選択して実行
• 主にアドホックなシナリオを作成するために使用
Intelligence
Slice
• 1度のエクスポートで、複数のデータタイプにまたがるシナリオ
を作成するために使用
• 例えば1ヶ月という期間範囲の、複数のデータタイプにまた
がったデータスライスをエクスポートするために利用
Scenario
Segment
• Data SnapやIntelligent Sliceでは対応できないほど複
雑な選択基準を持つ場合に使用
• SQL文でデータエクスポート条件を構成
• 1度のエクスポートを、1つのデータタイプを選択して実行
19
新たなクライアント環境作成時の典型的なステップ
• 新たなクライアント環境を作成して、マスタデータ・トランザクションデータをコピーする典型的なステップは以下となります。
Gold Client環境のセットアップ
(新規ターゲットクライアントの作成、共有フォルダ・Gold Clientのセットアップなど)
Client Constructを使い、ソースからターゲットクライアントへ
マスタデータを全てコピー
Data SnapもしくはIntelligent Sliceを使い、トランザクションデータのサブセット
(一般的には一定期間のデータ)をターゲットクライアントへコピー
Number Rangeユーティリティを実行
20
初期データコピー以降の典型的なデータコピーステップ
(A) アドホックなシナリオ
と再利用可能なシナリオ
のどちらを作成するか?
(B) 「Data Snap」を使って、条件を入
力し、データのエクスポートを開始する
(C) 選択基準を1つの
データタイプに適用する
か、それとも多くのデータ
タイプに適用するか?
(D) 「Intelligent Slice」を使って条
件を入力し、シナリオを生成する
(E) 「Data Snap」を使って条件を入
力し、シナリオを保存する
(F) 「Export Control」により
Export IDへシナリオ追加する
(G) 「Export Control」を使用して
データのエクスポートを開始する
(H) 「Import Control」を使用して
データのインポートを開始する
終了
アドホック
再利用可能
多い
1つ
21
Client Construct
22
Client Exporter
23
Client Exporterの起動
• ソース側のSAPシステム上で「Tcode:zgold」を実行します。
• [Client Exporter]をクリックします。
24
Client Exporterの実行
• 以下の手順でClient Exporterの実行を行います。
① 「Direct Export」
を選択します。
② 「All Master Data
Type」を選択します。
③ 「Schedule Job」を
クリックします。
④ Job名を入力します。
⑤ 「Parallel Processing」を
ONにします。
⑥ 「Accept」をクリックします。
25
Client Exporter実行の推奨事項
• Processing Methodでは、「Direct Export」を利用することが推奨されます。
• データ整合性の確保をより確実にするため、「All Master Data Types」のData Selection Criteriaを選択
することが推奨されます。
• ジョブ実行のタイムアウトを避けるために、「Schedule Job」でジョブを実行することが推奨されます。
• 実行時間を短縮するために「Parallel Processing」オプションを利用して、複数ジョブでエクスポートを実行する
ことが推奨されます。
26
Processing Methods
方法 説明 対応開始
Transport Request • トランスポートを作成(リリースのオプションも有り)
• 1つのData typeに対して1つのエクスポートを作成
• ファイルサイズが大きくなる可能性があり、トランスポートディレクトリの領域を大
きく消費する可能性がある
• 製品初期バー
ジョンから存在す
る方法
R3Trans Method • SAP R3のテクノロジーを使い、トランスポートを作成しない方法
• ファイルはトランスポートディレクトリではなく、Gold Clientディレクトリに作成
• Version 8.3
(March 2014)
に追加された方
法
Direct Export • QlikのABAPコードを利用してデータをエクスポート
• ファイルはGold Clientディレクトリに作成
• 3つの中で、この方法が一般的には最も高速
• この方法がデフォルトで選択されており、Qlikのベストプラクティスで利用を推奨
• 数年前から利用
可能な方法
27
マスタデータの選択
「Select Data Types(s)」を選択
マスタデータを選択
• 以下の順でマスタデータの選択を行います。
• [Configuration] > [Client Construct]のデータタイプ設定で管理されるマスタデータ一覧がここに表示されます。
28
Import Options
• ターゲットのRFC Destinationを指定し、エクスポート後に自動的にインポートをトリガーすることが可能です。
• 事前にRFC Destination (Tcode:SM59)を作成する必要があります。
インポート先の「RFC Destination」
およびインポートのオプションを指定
インポート先のSystem ID, Client
IDを限定することも可能
29
Transformation Rules
• 適用されているTransformation Ruleを確認することができます。
• 「Select」チェックボックスをON/OFFすることで、Transformation Ruleの有効化/無効化が可能です。
30
Job Monitor
• 実行されたジョブの実行状況を確認することができます。(Tcode:SM37のショートカット)
ジョブの実行状況をモニタリング
(Parallel ProcessingをONにし
た場合、複数のWorkerプロセスが
作成されます。)
エクスポートされたデータタイプ、テーブル、
ファイルパス、件数などの詳細を確認
31
Client Importer
32
Client Importerの起動
• ターゲット側のSAPシステム上で「Tcode:zgold」を実行します。
• [Client Importer]をクリックします。
作成済みのエクスポートの一
覧が表示されます。
33
Client Importerの実行
• 以下の手順でClient Exporterの実行を行います。
② 「Schedule Job」を
クリックします。
① インポート対象の
「Select」チェックボック
スをONにします。
③ 「Conflicting Data
Options」を選択します。
④ 「Accept」をクリックします。
34
Conflicting Data Option
• Conflicting Data Optionは以下になります。
方法 説明
Replace Conflicting Data • インポートされるデータと一致するターゲットクライアントに存在するレコードがまず削除さ
れ、次にエクスポートファイルのデータがインポートされます。
• これにより、ターゲットクライアントに元々存在していたデータが置き換え・更新されます。
Skip Conflicting Data Check • Gold Clientのインポートプログラムが、データが競合しているかどうかを判断するために
通常実行するチェックをスキップするようになります。
• このオプションは、大量のデータをインポートする場合や、特にデータセットをできるだけ早
くインポートする必要がある場合に主に役立ちます。
Delete Table Data Before
Import
• ターゲットクライアントに存在する対象テーブルのデータを一旦全て削除し、次にエクス
ポートファイルのデータがインポートされます。
35
Sizing Report
• エクスポートされたデータのレコード数、サイズなどを確認することができます。
② エクスポートされたテーブル、件数、サ
イズなどの詳細を確認
③ ファイルパスをクリックすると、
データの内容を確認可能
① インポート対象の「Select」チェックボック
スをONにして、「Sizing Report」をクリック
36
Conflicting Data Report
インポート対象の「Select」チェックボックスを
ONにして、「Conflicting Data Report」
をクリック
• エクスポートの含まれるレコードで、ターゲットクライアントに既に存在するレコードの情報を表示します。
Foreground
の場合
Backgroundの場合
Job Monitorを開いて、
ジョブの結果を確認
37
エクスポートの確認
• Export IDをクリックすると、エクスポートに含まれるData Typeを確認することができます。
38
Data Echo
39
Data Snap
40
Data Snapとは
• 「Data Snap」はGold Clientの「Data Echo」と呼ばれるコンポーネントの中のキーとなる機能の一つです
• Gold Clientには、データのサブセットをエクスポートする以下の3つの機能があり、「Data Snap」はその一つとなります。
 Data Snap
 Intelligent Slice
 Scenario Segment
• 利用が容易なことから、Gold Clientの中では最も広く使われる機能になります。
• エクスポートの即時実行、もしくはScenarioを作成してExport Controlでの実行のいずれにも対応します。
• 主な対象利用ユーザーは「データエキスパート」になります。
41
Data Snapの利用目的
• 「Data Snap」は以下の目的で利用されます。
 ソースSAPクライアントからデータのエクスポートを実行する
 データエクスポートの「Scenario」を作成する
 「Scenario」はエクスポート処理をを再利用するためのバリアントに当たります。
42
Data Snapのユースケース
• 以下のような、少量のデータを素早くソースからターゲットのクライアントにコピーしたい場合に利用します:
 本番システムのサポート:本番システムのトラブルシューティングなどの目的で、本番システムから、下位のシステム
(検証、開発など)に本番データのコピーが必要な場合
 開発:APAP開発者が新たなプログラムを作成し、開発環境でテストを実施するために本番環境のデータが必要
な場合
 トレーニング:チームがユーザートレーニングの実施が必要で、本番環境に実際のビジネスデータを利用してトレー
ニングを実施したい場合
43
Data Snapの起動
• ソース側のSAPシステム上で「Tcode:zgold」を実行します。
• [Data Snap]をクリックします。
44
Data Typeの検索
• データエクスポートの対象とするData Typeを検索して選択します。
検索ヘルプのボタンをクリックします。
• Data Type Search: データタイプ名、種類(トランザ
クション、マスター、その他)、またはPrimary Flagによる
検索。「Primary Flag」という用語は、Data Echo構成
(フレームワーク)内の特定の階層のトップレベルを表す
データタイプを識別するために使用されます。
• Data Type by Table: テーブル名やデータタイプ別に
よる検索。
• Data Type by Tags: タグIDおよび/またはデータタイプ
別による検索。
• Data Type by Flow: 受信データタイプテーブルおよび
/または受信データタイプ名別による検索。
45
Data Typeの検索の例:Data Type名で検索
• データエクスポートの対象とするData Typeを検索して選択します。
① 検索ヘルプのボタンをクリックし
ます。
② 「Data Type」のタブをを開いて
「Data Type」にData Type名を入力
します。(以下では「SD*」とし、SDの
Data Typeを検索の対象としている)
③ 検索したテーブルを含むData Typeの
一覧が表示されますので、エクスポートの
対象とするものを選択します。
④ Data Typeが選択されます。
46
Data Typeの命名規則
• Data Typeは、2文字または3文字のプレフィックスが、データオブジェクトの主な対象となるSAPモジュールを表します。
• その後にダッシュが続き、さらに説明が続くという、決まった命名法に従っています。
• マスターデータタイプとトランザクションデータタイプの一般的な例は次のとおりです。
CA - BUSINESS PARTNERS
CA - EQUIPMENT DATA
CA - VENDOR MASTER
CO - INTERNAL ORDERS
EHS - HAZARDOUS SUBSTANCE MGMT
FI - FINANCE DOCUMENTS
HR - EMP MAST WITH PAY POSTING
LE - HANDLING UNITS
MM - MATERIAL MASTER
MM - PURCHASING DOCUMENTS
PM - FUNCTIONAL LOCATIONS
PP - PRODUCTION ORDERS
QM - INSPECTION LOTS
SD - CUSTOMER MASTER
SD - SALES DOCUMENTS
TR - BANKING STATEMENTS
WM - TRANSFER ORDERS
※ 1つのモジュールに収まらないデータタイプには、クロスアプリケーションを意味する「CA」という名前が付けられています。
47
Data Typeの検索の例:テーブル名で検索
• データエクスポートの対象とするData Typeを検索して選択します。
① 検索ヘルプのボタンをクリックし
ます。
② 「Data Type by Table」のタ
ブをを開いて「Table Name」に
テーブル名を入力します。
③ 検索したテーブルを含むData Typeの
一覧が表示されますので、エクスポートの
対象とするものを選択します。
④ Data Typeが選択されます。
48
Data Type Manager
• Data Echoのデータタイプ設定画面([Configuration] > [Data Echo])に定義されている内容を確認できます。
49
Datatype Hierarchy Report
• データタイプは、他のデータタイプと「リンク(Linkage)」することができ、他のデータタイプに含まれる依存するデータをコ
ピーの対象に含めることができます。 ([Configuration] > [Data Echo]の画面で定義)
• ここでは、リンクされた全てのData Typeを階層で確認することができます。
50
Sizing Reportの実行
① 「Export Description」にエク
スポートの説明を入力します。
②エクスポートの対象とするデータの選択
基準を入力します。(ここではSales
Documentの5500~5504を対象)
③ 「Show Count」を
クリックします。
④ 「Online」をクリックします。(件数が多くなること
が予想される場合には、「Backgroud」をクリック
し、結果をSM37で確認します。)
⑤選択基準に合致したレコード件
数が表示されます。
• Sizing Reportは、選択基準を検証し、見つかったレコードの数を示すメッセージを返します。
• ユーザーはこれからエクスポートされるデータの量を確認することができます。Sizing Reportの実行は必須ではありませ
んが、エクスポートを開始する前のサニティーチェックのような役割を果たします。
51
Data Snapの実行
• 以下の手順でData Snapの実行を行います。
① 「Schedule Job」
をクリックします。
② Job名を入力します。(前画面の「Export
Description」の値が初期値として設定されます。)
⑤ 「Parallel Processing」を
ONにします。
⑥ 「Accept」をクリックします。
52
Job Monitor
• 実行されたジョブの実行状況を確認することができます。(Tcode:SM37のショートカット)
ジョブの実行状況をモニタリング
(Parallel ProcessingをONにし
た場合、複数のWorkerプロセスが
作成されます。)
エクスポートされたデータタイプ、テーブル、
ファイルパス、件数などの詳細を確認
53
Scenarioとして保存
• 以下の手順で、即座に実行を行わず、Data Snapの処理をScenarioとして保存することができます。
• ScenarioはExport Controlで管理されるExport IDに追加して利用することができます。(詳細は後段のExport
Controlの説明をご参照ください。)
54
Data Snapのカスタマイズ
55
Data Selection Criteriaのカスタマイズ(1)
• Data Snapの実行時に指定する選択基準(Data Selection Criteria)をカスタマイズすることができます。lection
この選択基準に表示される項目を
カスタマイズ可能です。
56
Data Selection Criteriaのカスタマイズ(2)
• 以下の手順でData EchoのData Selection Criteriaの設定個所を開きます。
① Data Snapの画面でData
Typeを選択し、「Data Type
Manager」をクリックします。
② 「Data Snap」を選択します。
③ 現在設定されている選択基準の
項目が表示されます。変更アイコン
をクリックします。
57
Data Selection Criteriaのカスタマイズ(3)
• 以下の手順で、選択基準の項目を追加・削除することができます。
• Source, Src Fld: 選択基準に追加するテーブル名と列
名を入力します。
• Active: フィールドをアクティブまたは非アクティブに設定しま
「Active」とは、そのフィールドがData Snap画面に表示さ
れ、使用可能になることを意味します。少なくとも1つのフィー
ルドがアクティブに設定されている必要があります。
• Req‘d Sel.:Data Snapエクスポートを実行する際に、
このフィールドにデータを入力する必要があることを意味しま
す。少なくとも1つのフィールドが必須として設定されている必
要があります。
• User Description:フィールドにUser Descriptionを
追加し、入力された場合には、SAPの長いフィールドラベル
の代わりに使用されます。
①「新しい行」アイコン、「行削除」ア
イコンを使って、それぞれエントリを追
加・削除します。
② 選択基準の列項目の情報を入力し、最
後に保存を行います。
③ 変更の理由を任意で入力し、確定ボタン
をクリックします。
58
Data Selection Criteriaのカスタマイズ(4)
• 以下の形で、 Data Snapの実行時に指定できるData Selection Criteriaに項目が追加されます。
59
Data Selection Criteriaのカスタマイズ(5)
• Data Selection Criteriaの項目が1つも指定されていない場合、Data Snapの実行時に以下のエラーとなります。
 手順に従って1つ以上のData Selection Criteriaの項目を追加してください。
「Data Type [] is not configured for Data Snap」の
エラーは、当Data TypeにData Selection Criteriaが指
定されていない場合に発生します。
当Data TypeをData Snapで利用するには、手順に従って
Data Selection Criteriaの項目を追加します。
60
Data Limitパラメータ(1)
• Data Snapの設定には、ユーザーが許可されるエクスポートのデータ件数上限が含まれています。
• デフォルトの設定は「1,000件」となっており、必要に応じて設定の変更を行うことができます。
61
Data Limitパラメータ(2)
• Data Limitパラメターは、トップレベルのData Typeのみに適用します。
• 従属する配下のData Typeにはこのパラメータの制限は適用しません。
62
Intelligent Slice
63
Intelligent Sliceとは
• 「Intelligent Slice」はGold Clientの「Data Echo」と呼ばれるコンポーネントの中のキーとなる機能の一つです
• Gold Clientには、データのサブセットをエクスポートする以下の3つの機能があり、「Intelligent Slice」はその一つとな
ります。
 Data Snap
 Intelligent Slice
 Scenario Segment
• Intelligent Sliceにより、「Data Scenario」が作成されます。(エクスポート処理自体は実行されません。)
 日付範囲が主な選択基準として利用されることを想定しています。
 選択基準は複数のData Typeに跨って適用されます。
• Intelligent Sliceのエクスポートは「Export Control」上で実行される必要があります。
64
Intelligent Sliceのユースケース
• Intelligent Sliceの主な用途は、クライアントリフレッシュの一環として、一部の日付範囲のデータをコピーしてクライアント
環境のデータを更新する目的で利用されます。
• 主な利用対象のユーザーは、クライアントリフレッシュを実施するBASIS担当者や管理者になります。
• BASISユーザーは多くの場合は日付範囲のみ、場合によっては企業コードやプラントなどを選択基準として利用し、この
Intelligent Sliceの機能を利用します。
65
Intelligent Sliceの起動
• ソース側のSAPシステム上で「Tcode:zgold」を実行します。
• [Intelligent Slice]をクリックします。
66
Data Selection Criteriaの選択
• 以下の手順で、エクスポートの説明の入力と、対象データの選択基準の入力を行います。
① 「Enter Description」にエク
スポートの説明を入力します。
②エクスポートの対象とするデータの選択
基準を入力します。(ここではDate
Rangeの2022/01/01~
2022/12/31を対象)
67
Data Typeの選択
• 以下の手順で、エクスポートの対象とするマスタおよびトランザクションのData Typeを選択します。
① エクスポート対象とするData Type
のチェックボックスをONにします。 ② 登録されたExport IDが表示されます。
68
作成されたExport IDの確認
• 「Export Control」上で、作成されたExport IDを確認することができます。
作成されたExport IDを確認することが
できます。
エクスポートに含まれるData Type、レコード数
などを確認することができます。
エクスポートを実行する場合には
「Schedule Jobs」をクリックします。
作成時に指定した選択基準が表示され、ここで
変更を行うことも可能です。
69
Intelligent Sliceのカスタマイズ
70
Data Selection Criteriaのカスタマイズ
• 以下の手順で、選択基準の項目を追加・削除することができます。
ここでは、フィールドの追加、削除、有効化、無効化、さらには画面に表示される
順序を変更することができます。さらに、SAPの長いフィールドラベルの代わりに、
Intelligent Slice 画面に表示されるユーザー説明を定義することもできます。エ
ントリーを「アクティブ」に設定しないと、Intelligent Slice画面には表示されません
フィールドの追加、削除などを実施
71
Data Selection Criteriaのカスタマイズ
• 「Primary Data Type」のみがIntelligent Sliceで利用可能です。
• デフォルトでは、こららのData Typeに対して利用可能な「Created On」が日付フィールドとして割り当てられています。
Data Typeにより、「Posted On」、「Changed On」、「Run On」が利用されている場合もあります。
「Primary Data Type」のフラグ 割り当てられた日付フィールド
72
Export Control
73
Export Controlとは
• 「Export Control」はGold Clientの「Data Echo」と呼ばれるコンポーネントの中のキーとなる機能の一つです
• Gold Clientには、エクスポートを実行する以下の2つの機能があり、「Export Control」はその一つとなります。
 Data Snap
 Export Control
• データのエクスポートは「Scenario」に依存しており、事前にData SnapやIntelligent Sliceで作成しておく必要があ
ります。「Scenario」はExport Control上で作成できません。
74
Export ControlとData Snap
• データエクスポートを実行するする方法は、以下の2種類に大きく分けられます。
Export Control Data Snap
定期的もしくは繰り返してエクスポートを実
行するために利用
アドホックな1度限りのデータエクスポートに
利用(ただし、エクスポートを実行せず、
Scenarioのみを作成して、Export
Controlで実行することも可能)
エクスポートするデータ量に制限なし パラメータによりエクスポートするデータ量を
制限
複数のData Typeを選択可能 1つのData Typeのみ
Scenarioの作成は不可、編集のみ可能 Scenarioの作成は可能、編集は不可
BASISチーム、管理者に利用を制限する
ことが望ましい
その他のチームメンバーに利用開放するこ
とも可能
75
Export IDとContainer(1)
 Export ID
• Intelligent Sliceの実行により作成されます。
 Export Control上で新たなExport IDを作成することも可能です。
• このオブジェクトはエクスポート定義のフォルダーの役割を果たします。
 一つのExport IDの中に複数のContainerを含むことができます。
• Export Controlで、このExport IDを指定してエクスポートの実行を行います。
 Container
• このオブジェクトにData TypeとScenario Numberが指定されます。
 どのData Typeに、どのようなデータの選択基準でエクスポートを実行するかの定義に相当します。
 データの選択基準などを編集することができます。
• Data Echoの「Save as Scenario」やIntelligent Sliceにより作成することができます。
76
Export IDとContainer(2)
• Export IDとContainerは「Import Control」で確認することができます。
Export ID Container
77
Export Controlの起動
• ソース側のSAPシステム上で「Tcode:zgold」を実行します。
• [Export Control]をクリックします。
78
Export IDの実行
• 以下の手順でExport IDの実行を行います。
① エクスポートを実行
するExport IDを選択
します。
②「Schedule Job」をク
リックします。
③ Job名を入力します。
④ 「Parallel Processing」を
ONにします。
⑤ 「Accept」をクリックします。
79
Import Options
• ターゲットのRFC Destinationを指定し、エクスポート後に自動的にインポートをトリガーすることが可能です。
• 事前にRFC Destination (Tcode:SM59)を作成する必要があります。
インポート先の「RFC Destination」
およびインポートのオプションを指定
インポート先のSystem ID, Client
IDを限定することも可能
80
Import Options:ターゲットでの実行の結果
• ソースシステムでエクスポート実行が完了後、ターゲットシステムでBV_QLIKEXXXXXXXというジョブが自動的
に作成され、データインポートが実行されます。
ソースシステムでエクスポート実行が完了後、ターゲットシステムで
BV_QLIKEXXXXXXXというジョブが作成され、データインポート
を実行されます。
ソースシステムでエクスポート実行
が開始されます。
81
Job Monitor
• 実行されたジョブの実行状況を確認することができます。(Tcode:SM37のショートカット)
ジョブの実行状況をモニタリング(Parallel
ProcessingをONにした場合、複数の
Workerプロセスが作成されます。)
エクスポートされたデータタイプ、テーブル、
ファイルパス、件数などの詳細を確認
82
Adjust Date Range(1)
• エクスポートの対象とする日付範囲をアップデートすることができます。
実行方法を指定します。
・「Summary Report」: テストモードで実行
・「Update Database」: 実際の更新を実行
新たに設定される日付範囲がレポートとして
表示されます。
今日の日付を「Start Date」に入力し、
「Last X days」の選択を行います。
必要に応じて対象とする日付フィールドを選
択します。
83
Adjust Date Range(2)
• エクスポートの対象とする日付範囲をアップデートすることができます。
「Update Database」を選択してData Range
Utilityを実行します。
日付範囲が更新されます。
84
Export Dashboard
• 実行されたジョブをダッシュボード上で確認することができます。
ジョブが表示されます。
ジョブを選択し、「Export Progress」を
クリックすると、ジョブのステータスやログを
確認することができます。
85
Export IDに含まれるContainerの作成・削除・変更
• 「Export Control」上で、作成されたExport IDを確認することができます。
Export IDに含まれるContainerの一覧が表
示されます。エクスポートに含まれるData Type、
レコード数などを確認することができます。
Containerの作成、削除を行うことができます。
作成時に指定した選択基準が表示され、ここで
変更を行うことも可能です。
「New Field Selection」をクリックし、新たな列
を選択基準に追加することができます。
86
Export IDの作成
• 以下の手順で新たなExport IDを作成することができます。
① 「Create」をクリックして、新たなExport IDを
作成します。
② 作成されたExport IDを
クリックします。
③ 「Add Container」をク
リックします。
④ 「Data Type」と、「Scenario
Number」を選択して保存します。
87
Export IDの削除
• 以下の手順でExport IDを削除することができます。
① 削除するExport
IDを選択します。
②「Delete」をクリックし
ます。
88
Scenarioの管理
• 以下の手順で、作成済みのScenarioを管理することができます。
「Scenario Manager」をクリックします。
「My Scenarios」をクリックして自分が所有す
るScenarioを表示するか、検索条件を設定
して「List Scenarios」をクリックします。
Scenarioの一覧が表示されます。ここで、
Scenarioの削除を行うことができます。
89
Import Control
90
Import Controlの起動
• ターゲット側のSAPシステム上で「Tcode:zgold」を実行します。
• [Export Control]をクリックします。
91
Export IDの実行
• 以下の手順でExport IDの実行を行います。
① エクスポートを実行
するExport IDを選択
します。
②「Schedule Job」をク
リックします。
③ Job名を入力します。
④ 「Parallel
Processing」をONに
します。
④ 「Accept」をクリックします。
③ いずれかを選択します。
92
Job Monitor
• 実行されたジョブの実行状況を確認することができます。(Tcode:SM37のショートカット)
ジョブの実行状況をモニタリング(Parallel
ProcessingをONにした場合、複数の
Workerプロセスが作成されます。)
インポートされたデータタイプ、テーブル、
ファイルパス、件数などの詳細を確認
93
Data Detail Report
• データファイルを読み込み、Data Typeのヘッダーテーブルのテーブル名、レコード件数、ファイル、レコード(キーフィールドの
み)などの詳細を出力します。
94
Sizing Report
• データファイルを読み込み、テーブル名、レコード件数、テーブル幅、サイズ、Data Type、ファイルなどの詳細を出力します。
• このレポートは、エクスポート処理中に収集されたデータ量(レコード数)と、このデータをインポートした場合にターゲットデー
タベースで消費される(可能性のある)総容量を把握したい場合に役立ちます。
95
Conflicting Data Report
• データファイルのレコードのうち、ターゲットクライアントにすでに存在するものだけを表示します。
• ユーザーはこれからインポートしようとしているデータがターゲットクライアントにすでに存在し、上書きされる可能性があることを
理解することができます。
96
Import Progress
• 実行中のジョブの進捗状況を表示することができます。
Runtime ID(ジョブログより取得)を入力する
と、インポートの進捗状況が表示されます。
97
Delete Files
• Gold Clientによりエクスポートされたファイルシステム上のファイルを削除することができます。
98
Adjust Data Rangeを使った
定期的なコピーのスケジューリング
99
定期的なデータコピーのスケジュール
• 本番システムで変更されたデータを定期的にコピーし、ターゲットクライアントのデータを新鮮に保つための方法を説明します。
ここでは、日付の範囲に基づいてデータをコピーするために必要な手順を説明します。
• Export Controlの「Adjust Date Range」機能を使って、「Today -7 days」のような動的変数を作成します。このプログラム
と変数、およびExport IDに割り当てられたシナリオは、定期的なジョブとして実行されるように設定されており、これにより繰り
返しコピー作業を行うことができます。
 さらにExport ControlのImport Option上で自動インポートオプションを有効化すると、エクスポートが完了した後にイン
ポートプロセスが実行され、エクスポートとインポートのプロセスが完全に自動化されます。
100
Adjust Date Rangeの起動
• Export Control上で対象のExport IDを選択し、「Adjust Date Range」をクリックします。
101
バリアントの保存
• 以下の手順で、Data Range Utilityのバリアントを作成します。
① 「Update
Database」を選択しま
す。
② 今日の日付を「Start
Date」に入力し、「Last X
days」の選択を行います。
③ 必要に応じて対象とする日付フィールドを
選択します。
⑥ 「Selection variable」を「D」、「Name of Variable」
に「Current Date」を設定して保存します。
④ 保存を行います。 ⑤ バリアント名と説明を入力します。
102
エクスポートジョブの作成
• 以下の手順で、エクスポート実行のジョブを作成します。
Start Optionで「Date/Time」を選択し、
任意の開始日・時刻を入力します。
103
エクスポートジョブの変更
• ジョブモニター(SM37)を開いて、作成したジョブの変更を行います。
「Job Status」で「Released」、「Job Start Condition」
でジョブをスケジュールした日付が含まれる範囲をを選択し、
「Execute」を実行して、作成したジョブを検索します。
対象のジョブのチェックボックスをONにし、メニューの「Job」>
「Change」を選択します。
104
新規ステップの作成
• 以下の手順で、新規ステップを作成します。
① 「Step」をクリックします。 ② 新規のアイコンをクリックします。
105
ステップの設定
• 以下の手順で、ステップの設定と、ステップ実行順序の変更を行います。
① ABAP Programの「Name」で
「/HTG/GLC_UTL_R_50」を選択し、「Variant」
で作成済みのバリアントを選択します。
② 作成したステップ2の「/HTG/GLC_UTL_R_50」
を選択し、「Choose」のアイコンをクリックします。
③ ステップ1を選択し、「Move」のアイコンをクリックします。
④ ステップの順序が逆になったことを確認し、
前の画面に戻ります。
106
定期実行のスケジューリング
• 以下の手順で実行を定期スケジューリングすることができます。
① 「Start Condition」をクリックします。
② 必要に応じてScheduled Startの日付
と時間を調整します。
③「Period values」をクリックします。
④要件に応じて適切な値(毎日、毎週、毎
月など)を設定し、保存します。
107
Post Process
108
Number Range
ユーティリティ
109
Number Rangeユーティリティが必要な理由
• 本番環境からターゲットにデータをコピー後、ターゲット上で新たなレコードが作成する数値範囲が消費されます。
• 本番環境でも新たなレコードが作成され、そのレコードをターゲットで既に消費されてしまった数値範囲に対してコピーをしようとすると「データ
の衝突」が発生し、そのデータがすでにデータベースに存在していることを想定していないため、結果としてショートダンプが発生します。
• Number Rangeプログラムを実行すると、ターゲットクライアントにバッファが作成され、本番環境からのデータのコピーが可能になる一方で、
ターゲットクライアントに新しいデータを作成して競合を回避することができます。
ターゲットで既に消費された
数値範囲に対して、本番から
レコードをコピーしようとすると、
「データの衝突」が発生します。
Number Range Utilityによ
り、ターゲットで数値範囲にバッ
ファを設けると、本番環境から
データコピーを行った際に「デー
タの衝突」を回避できます。
110
数値範囲のバッファ計算
• 残りの数値範囲の20%をバッファとして設定する場合の計算:
 100,000(全体) – 30,000(消費済み) = 70,000(残り) * 20%(指定した倍率) = 14,000(バッファ)
 30,000(消費済み) + 14,000(バッファ) = 44,000(ターゲットでのNumber Status)
バッファ内で本番からデータをコ
ピーしても、「データの衝突」を回
避することができます。
全体:
100,000
消費済み:
30,000
消費済み:
30,000
新規追加
新規追加
残り:
70,000
Number Range Utilityにより設定
されたNumber statusの値から上の
範囲で、ターゲット側で新規レコードが
作成されます。
ターゲットでのNumber Status: 44,000
本番環境 ターゲットクライアント
111
Number Rangeユーティリティの起動
• ターゲット側のSAPシステム上で「Tcode:zgold」を実行します。
• [Post Process] > [Number Range Utility]をクリックします。
112
Number Rangeユーティリティの実行
Processing Options:
• 「Summary Report」: テストモードでの結果を確認するのに使用できます。
• 「Update Database」: NRIV(Number Range Intervals)テーブルへの実
際の更新を行うために使用されます。
Increase by %:
• この値は、数値範囲の現在の数値をより高い数値に膨らませるための倍率として
使用されます。
• デフォルト値は「1」で、1~99の間の任意の値を設定できます(通常、多くのお客
様には5~10%の範囲が適しています)。
Selection Criteria:
• 「All Number Range objects」: システム内のすべてのNRオブジェクトが更新
されます。
• 「Select Number Range objects 」: どの数値範囲オブジェクトを含めるかを
選択することができます
Number Range Table Exception:
• このテーブルは、プログラムの実行時に含まれるべきではない数値範囲オブジェクト
を含むように管理することができます
• 除外されるべき既知の数値範囲が標準設定で追加されています。
(FKK_BELEG, ISU_ERDK, GL_FLEX0~GL_FLEX8)
② 実行方法を指定します。
・「Summary Report」: テストモードで実行
・「Update Database」: 実際の更新を実行
③ 「Execute」をクリックします。
① 数値範囲を膨らま
す倍率を指定します。
113
Summary Reportの実行結果
• Object name - 数値範囲オブジェクトの名前
• Short text - 数値範囲オブジェクトの説明
• Subobject Value - 数値範囲オブジェクトのサブオブジェクトの値
• Number – 数値範囲の数字
• Year -年度
• From Number – 数値範囲の最初の番号
• To Number – 数値範囲の最後の番号
• Number Status - 現在の番号
• Updated Number - 人為的に膨らませた番号
• Remaining % - 数値範囲内に残っている数字の割合
• Warning % - 各Number RangeオブジェクトにSAPで設定され
た値で、この割合に達すると警告メッセージが表示されます。
「Status」列の値が現在の番号を表し、その値
がこの「Updt Num」列の値に更新されます。
• Processing Optionsで「Summary Report」を選択して実行した場合、以下のような結果が表示されます。
114
Update Databaseの実行
• Processing Optionsで「Update Database」を選択して実行した場合、以下のような結果が表示されます。
倍率を指定して「Update
Database」を選択し、
「Execute」をクリックします。
実行完了後、「Flush NR Buffer」(もしくは、
Tcode: SM56を実行)で数値範囲のフラッシュ
を行う必要があります。
115
Execution Logの確認
• 実行ログは「Execution Log」から確認することができます。
116
Data Transform
117
Data Transform
118
変換ルールとは
• 変換ルールを定義すると、組織の要件に応じて、Client ConstructとData EchoのData Typeに変換ルールを割り
当てることができます。
• これは、主に機密データを保護するために行われます。この割り当てにより、割り当てられたルール内のデータ変換ロジック
は、ユーザーの操作に関係なく、データエクスポート時に自動的に実行されることになります。
• 例として、変換ルールBP01( ビジネスパートナーのデータを変換するように設計されている)は、Client Constructの
Data Typeの「BUSINESS PARTNERS」、および/またはData EchoのData Typeの「CA - BUSINESS
PARTNERS」に割り当てることが可能です。
119
変換ルールの注意点
• ひとつの変換ルールは、定義されたカスタムを含む複数のData Typeに割り当てることが可能ですが、1つのData
Typeに複数の変換ルールを割り当てることはできません。
• キーフィールドを変換すると、ターゲットクライアントのデータの整合性に大きな影響を与える可能性があるため、キー
フィールドを変換しないのがベストプラクティスとして推奨されます。
120
Transformation Setupの起動
• ソース側のSAPシステム上で「Tcode:zgold」を実行します。
• [Transformation Setup]をクリックします。
121
Transformation Rule (変換ルール)
• Transformation Ruleの構造は以下となります。
• 各ルールの定義の中に、変換の対象とするテーブル名、項目名、変換方法が含まれます。
Transformation Rule名
ルールに含まれるテーブル名
変換の対象となる項目名
Transformation Type
= データの変換方法
• Data Transformにより、個人を特定できる
情報(PII)のデータなどのデータの機密性の高
いデータを安全に難読化してスクランブルするこ
とができます。
• 例えば、従業員の、名前や社会保障番号、住
所、給与、電話番号、メールアドレスをスクラン
ブルすることができます。つまり、実際の本番
データに適切なセキュリティの処置を施して、安
全性の低い非本番システムに入れて、非常に
安全な方法で利用することができます。
122
変換ルールの作成
① 「Create Rule」をクリックします。
② 「New Rule ID」(4文字で入力)と「Description」
(説明)を入力して「Create」をクリックします。
• 以下の手順で、変換ルールの作成を行います。
123
変換ルールへのテーブルとフィールドの追加
• 以下の手順で、変換ルールへテーブルとフィールドの追加を行います。
変換ルールを選択して「Add Table」をクリックし、追
加するテーブル名を指定します。
テーブルを選択して「Add Field」をクリックし、追加す
るフィールド名を指定します。
124
Transformation Type (変換タイプ)
 Transformation Typeは、エクスポート時にフィールドに保存された値をどのように変更するかを定義します。
 変換タイプは以下の10種類があります。
• Blank
• Custom Function
• Derived (Equal)
• Derived (Concatenation)
• Derived (Multiply)
• Fixed Value
• List
• Random Number
• Random Date
• Alpanumeric (X1)
125
変換タイプ: Blank
 値は空白の値で置き換えられます。
126
変換タイプ: Custom Function
 値はカスタム関数からの出力に置き換えられます。
 カスタム関数は、既存の変換タイプがユーザーの変換要件と一致しない場合に使用することができます。
127
変換タイプ: Derived (Equal)
 エクスポートファイル内の別のテーブルおよびフィールドの値に置き換えられます。
 ’Src.Bytes’フィールドに数値を定義することで、値のサブセットを使用することができます。先頭から指定した文字数分の値を
取得することで、値のサブセットを使用することができます。
 以下の例では、テーブルPA0002のフィールドGBTAGから変換された値が、テーブルPA0002のフィールドGBPASでマスクさ
れる値のソースとして使用されることになります。
• Method – ‘E’と設定することで、Derived(Equal)を使用す
ることができます。
• Table - 派生された値の元となるテーブル
• Src.Bytes - フィールドから派生する最初の文字数
• Field Name - 派生値に使用されるフィールド
128
変換タイプ: Derived (Concatenation)
 エクスポートファイル内の別のテーブルのフィールド値の組み合わせで置き換えられます(最大4つのフィールドを組み合わせる
ことができます)。
 フィールドは、スペース、カンマ、小数点、スラッシュ、バックスラッシュで区切ることができます。
 以下の例では、テーブルPA0002のフィールドVORNAとNACHNの値が、デリミターの‘S’(スペース)で連結され、テーブル
PA0002のフィールドCNAMEにその値が格納されます。
• Method – ‘C’に設定し、 Derived (Concatenation) を使用できます。
• Table - 派生した値の元となるテーブル
• Delimiter - 連結された値の間にセパレータを挿入します。以下のオプションが選択可能です
 <空白> - セパレータなし
 S -スペース
 C - コンマ
 D - ピリオド
 / - スラッシュ
  - バックスラッシュ
• Src.Bytes - フィールドから派生する最初の文字数
• Field Name - 派生値に使用されるフィールド。最大4つのフィールドを連結のために定
義することができます。
129
変換タイプ: Derived (Multiply)
• 値はエクスポートの数値フィールドとMultiplierフィールドの値の積に置き換えられます。
• この例では、テーブルPA0008フィールドBET01に格納されている値が10倍され、この値がPA0008フィールドANSAL
に格納されます。
• Method – ‘M’に設定すると、Derived(Multiply)の変換タイプを使用します。
• Table - 派生した値の元となるテーブルです。
• Multiplier - 値の乗算に使用される数値
• Field Name - 派生値に使用されるフィールドです。
130
変換タイプ: List
• 入力されたリストIDから、ユーザーが定義したリストの値に置き換えられます。
• この例では、テーブルPA0006とフィールドSTRASのすべての値は、STREETというリスト内に保持されている値に基づ
いてランダムに変換されます。
リストを管理するには「Maintain
List」ボタンをクリックします。
この画面で、リストの作成・変更・
削除を行います。
131
変換タイプ: Random Number
 既存の数値は、入力された「Low Value」と「High Value」の間の数値に置き換えられ、「Step Value」フィールドに基づく
間隔が設定されます。
 この例では、テーブルPA0002のフィールドPERIDのすべての値が、111111111から9999999の範囲の、ステップ値として
指定された1000の間隔の値からランダムに選択されます。
• Low Value - エクスポート時にフィールドに割り当てられる最小の数値
• High Value - エクスポート時にフィールドに割り当てられる最大の数値
• Step Value - Low ValueとHigh Valueの間に使用される間隔
132
変換タイプ: Random Date
• 既存の日付は、ランダムな月と日を持つ日付に置き換えられます。年は、「Year Differential」フィールドに入力された
係数で増減します。
• この例では、テーブルPA0002のフィールドGBDATの値はランダムな月と日を持ちますが、実際の年から±2年の範囲
で変更されます。これにより、ユーザーは変換された年をどの程度古いものにするか、またはどの程度新しいものにするか
を制御することができます。
• Year Differential - 日付フィールドの年部分に追加または
削除される最大量
133
変換タイプ: Alphanumeric (X1)
 既存の文字列、及び数値がそれぞれ「X」と「1」の値に置き換えられます。
134
データ変換の例
名前や給与情報などが変換
ルールによって変換されます。
ソースクライアント ターゲットクライアント
135
Default Rules
 Default Ruleの設定により、変換ルールをData Echo/Client ConstructのData Typeに割り当て、変換ルール
をエクスポート処理で利用可能とします。
② 「Data Echo」、「Client Construct」の
いずれに変換ルールを適用するか選択します。
① 「Default Rules」をクリックします。
③編集アイコンを
クリックします。
④行追加アイコン
をクリックします。
⑤ 変換ルールを適用するData
Typeと、変換ルールを選択します。
⑥ 保存アイコンを
クリックします。
136
Transformation Ruleを使ったエクスポート
 Data Echo/Client Construct上でエクスポートを実行する際、「Data Transform」ボタンをクリックして適用されている
データ変換ルールを確認することができます。
 セキュリティ設定によりルール無効化を不可とし、データエクスポートの際に必ず変換が適用されるようにすることも可能です。
① チェックボックスをOFFにすることで
Transformation Ruleの適用を無
効化することができます。
② 適用するTransformation Rule
を選択・変更することができます。
137
Delete Data
138
Delete Data
139
Delete Data
• Delete Dataにより、「Import Control」上で実行されたタスクによりインポートされたデータをターゲット上のデータ
ベースから削除することができます。
• ターゲットのシステムのみで実行が可能です。
• データの削除を伴う処理のため、十分に注意して実行を行ってください。
140
Delete Dataの起動
• ターゲット側のSAPシステム上で「Tcode:zgold」を実行します。
• [Delete Data]をクリックします。
141
Delete Dataの実行
• 以下の手順で、Delete Dataを実行します。
対象のインポートタスクを選択して、
「Schedule Job」をクリックします。
142
データタイプの
カスタマイズ
143
Client Construct
144
Client Construct Framework画面へのアクセス
• 以下の手順で、Client Construct Frameworkの設定画面を開きます。
145
既存のデータタイプへのテーブル追加
• 以下の手順で、既存のデータタイプにテーブルを追加します。
① テーブルを追加する対象のデータタイ
プを選択し、「Master Data Tables」
をクリックします。
② 編集と「New Entries」のアイコンをク
リックします。
③ 追加するテーブル名を入力して保存
します。
146
新規のデータタイプの追加
• 以下の手順で、新たなデータタイプを追加します。
① 編集と「New Entries」のアイコンをク
リックします。
② 追加されたデータタイプを選択し、
「Master Data Tables」をクリックします。
③「New Entries」のアイコンをクリックします。
③ 追加するテーブル名を入力して保存
します。
147
Data Echo
148
Data Echo Frameworkへのアクセス
データタイプの表示対象を選択し
て一覧を表示
• 以下の手順で、Data Echo Frameworkの設定画面を開きます。
149
既存のデータタイプへのテーブル追加(1)
• 以下の手順で、既存のデータタイプにテーブルを追加します。
① テーブルを追加する対象のデータタイプ
の「Tables」をクリックします。
② 編集アイコンと行追加アイコンを
クリックします。
③ 追加するテーブル名を「Table Name」に入力し、キーでリン
クする先のテーブル名を「Source」に入力します。(上記例では、
追加するテーブルをVBAKのテーブルに紐づけます)
150
既存のデータタイプへのテーブル追加(2)
• 以下の手順で、テーブル間の紐づけを行うキー列を指定します。
① 追加したテーブルを選択します。 ② 列の追加アイコンをクリックします。
③ 元テーブルと、リンクする先のテーブルとの共通キーをそれぞれ
入力します。上記例では、追加したカスタムテーブルと、VBAKの
VBELNの列で紐づきが行われます。
151
新規のデータタイプの追加(1)
• 以下の手順で、新たなデータタイプを追加します。
①「Create」をクリックします。
② 作成するデータタイプの情報を入力し
て次に進みます。
• Data Type: データタイプの説明を指定します。
• DT Kind: データタイプの種類をTransaction、Master Data、または
Otherから選択します。
• File ID: Data typeのキーとなるもので、一意である必要があります。
• Data Snap Rec Limit: Data Snapで一度にエクスポートできるレコー
ド数の制限値を設定します。(1,000の指定が推奨されます。)
③ 「Table」を選択します。
④ 必要に応じて変更理由を入力して
次へ進みます。
152
新規のデータタイプの追加(2)
• 以下の手順で、新たに作成したデータタイプにテーブルを追加します。
• 下記手順を追加する全てのテーブルに対して繰り返します。
① 編集アイコンと行追加アイコンを
クリックします。
② 追加するテーブル名を「Table Name」、キーでリンクする先のテーブル名を
「Source」(ヘッダーテーブルの場合は、「Table Name」と同じ値)に入力し、
ヘッダーとなるテーブルには「Hd Flg」をオンにします。
③ 追加したテーブルを選択します。
④ 列の追加アイコンをクリックします。
⑤ 元テーブルと、リンクする先のテーブルとの共通キーをそれぞれ
入力します。(ヘッダーテーブルの場合は、両方ともヘッダーテーブ
ルのキーを指定します。)
153
新規のデータタイプの追加(3)
• 以下の手順で、プライマリデータタイプと日付項目の指定を行います。
① プライマリデータタイプに指定水る場合には、
「Primary」フラグをオンにします。
(Intelligent Sliceではプライマリデータタイプ
のみが利用の対象となります。)
② 日付範囲でエクスポートデータの条件設定
を行うための、日付項目を指定します。
154
新規のデータタイプの追加(4)
• 以下の手順で、Data Snapで利用する選択基準の項目を追加・削除することができます。
 Data Snapで当データタイプを利用しない場合は、選択基準の追加は不要です。
• Source, Src Fld: 選択基準に追加するテーブル名と
列名を入力します。
• Active: フィールドをアクティブまたは非アクティブに設定し
ま「Active」とは、そのフィールドがData Snap画面に表
示され、使用可能になることを意味します。少なくとも1つ
のフィールドがアクティブに設定されている必要があります。
• Req‘d Sel.:Data Snapエクスポートを実行する際に、
このフィールドにデータを入力する必要があることを意味しま
す。少なくとも1つのフィールドが必須として設定されている
必要があります。
• User Description:フィールドにUser Description
を追加し、入力された場合には、SAPの長いフィールドラベ
ルの代わりに使用されます。
①「新しい行」アイコンをクリック
します。
② 選択基準の列項目の情報を入力し、最
後に保存を行います。
155
Installation Setupによる
データタイプのカスタマイズ
156
Installation Setup
• 主にGold Clientの初期導入時に使用されるユーティリティーが提供されています。
• 一部のプログラムは初期導入後も利用されるため、1回の実行用と定期的な実行用の2つのセクションに分けられています。
• 複数のユーティリティをまとめて実行することもできますが、個別に実行することが推奨されます。
157
Configure Custom Table(1)
• カスタムテーブルをData Echoフレームワークに簡単に組み込むことを可能にします。標準的なSAPテーブルとカスタムテー
ブルの間の結合またはマッピングが行われます。
② 「Execute」をクリックします。
① 「Configure Custom Tables」の
チェックボックスをONにし、「Namespace」
を入力します。
③ カスタムテーブルの一覧が
表示されます。
カスタムテーブルが紐づく可能性が高いとGold
Clientによって判断されたData Typeとキー
情報が表示されます。
158
Configure Custom Table(2)
④ Gold Client Data Frameworkを
確認すると、Data Typeにカスタムテーブ
ルが含まれたことが確認できます。
② 「Accept」をクリックします。
① 採用するカスタムテーブルとData Type
の結合のチェックボックスをONにします。
③ カスタムテーブルが、Data Typeにリンク
されます。
www.qlik.com/sap

Contenu connexe

Similaire à Qlik Gold ClientテクニカルDeep-Diveセッション

[DI12] あらゆるデータをビジネスに活用! Azure Data Lake を中心としたビックデータ処理基盤のアーキテクチャと実装
[DI12] あらゆるデータをビジネスに活用! Azure Data Lake を中心としたビックデータ処理基盤のアーキテクチャと実装[DI12] あらゆるデータをビジネスに活用! Azure Data Lake を中心としたビックデータ処理基盤のアーキテクチャと実装
[DI12] あらゆるデータをビジネスに活用! Azure Data Lake を中心としたビックデータ処理基盤のアーキテクチャと実装de:code 2017
 
複数DBのバックアップ・切り戻し運用手順が異なって大変?!運用性の大幅改善、その先に。。
複数DBのバックアップ・切り戻し運用手順が異なって大変?!運用性の大幅改善、その先に。。 複数DBのバックアップ・切り戻し運用手順が異なって大変?!運用性の大幅改善、その先に。。
複数DBのバックアップ・切り戻し運用手順が異なって大変?!運用性の大幅改善、その先に。。 Insight Technology, Inc.
 
ほんとに使える?Big Data SQL検証結果から見る、その有益性(性能編)
ほんとに使える?Big Data SQL検証結果から見る、その有益性(性能編)ほんとに使える?Big Data SQL検証結果から見る、その有益性(性能編)
ほんとに使える?Big Data SQL検証結果から見る、その有益性(性能編)オラクルエンジニア通信
 
Data platformdesign
Data platformdesignData platformdesign
Data platformdesignRyoma Nagata
 
VisualStudio2010ReadyDay Azureセッション資料
VisualStudio2010ReadyDay Azureセッション資料VisualStudio2010ReadyDay Azureセッション資料
VisualStudio2010ReadyDay Azureセッション資料Shinichiro Isago
 
既存システムへの新技術活用法 ~fluntd/MongoDB~
既存システムへの新技術活用法 ~fluntd/MongoDB~既存システムへの新技術活用法 ~fluntd/MongoDB~
既存システムへの新技術活用法 ~fluntd/MongoDB~じゅん なかざ
 
YAPC::Asia 2008 Tokyo - Pathtraq - building a computation-centric web service
YAPC::Asia 2008 Tokyo - Pathtraq - building a computation-centric web serviceYAPC::Asia 2008 Tokyo - Pathtraq - building a computation-centric web service
YAPC::Asia 2008 Tokyo - Pathtraq - building a computation-centric web serviceKazuho Oku
 
Observability, Service Mesh and Microservices
Observability, Service Mesh and MicroservicesObservability, Service Mesh and Microservices
Observability, Service Mesh and MicroservicesTaiki
 
[Cloud OnAir] 最新アップデート Google Cloud データ関連ソリューション 2020年5月14日 放送
[Cloud OnAir] 最新アップデート Google Cloud データ関連ソリューション 2020年5月14日 放送[Cloud OnAir] 最新アップデート Google Cloud データ関連ソリューション 2020年5月14日 放送
[Cloud OnAir] 最新アップデート Google Cloud データ関連ソリューション 2020年5月14日 放送Google Cloud Platform - Japan
 
AWS Black Belt Techシリーズ AWS Data Pipeline
AWS Black Belt Techシリーズ  AWS Data PipelineAWS Black Belt Techシリーズ  AWS Data Pipeline
AWS Black Belt Techシリーズ AWS Data PipelineAmazon Web Services Japan
 
Autonomous を支える技術、Oracle Database 18c デモンストレーション
Autonomous を支える技術、Oracle Database 18c デモンストレーションAutonomous を支える技術、Oracle Database 18c デモンストレーション
Autonomous を支える技術、Oracle Database 18c デモンストレーションオラクルエンジニア通信
 
Managed Instance チートシート
Managed Instance チートシートManaged Instance チートシート
Managed Instance チートシートMasayuki Ozawa
 
Terraformを活用した自動化デモ_F5-NGINX_Community-20200805
Terraformを活用した自動化デモ_F5-NGINX_Community-20200805Terraformを活用した自動化デモ_F5-NGINX_Community-20200805
Terraformを活用した自動化デモ_F5-NGINX_Community-20200805shinyatsukasaki
 
EmbulkとDigdagとデータ分析基盤と
EmbulkとDigdagとデータ分析基盤とEmbulkとDigdagとデータ分析基盤と
EmbulkとDigdagとデータ分析基盤とToru Takahashi
 
EmbulkとDigdagとデータ分析基盤と
EmbulkとDigdagとデータ分析基盤とEmbulkとDigdagとデータ分析基盤と
EmbulkとDigdagとデータ分析基盤とToru Takahashi
 
わんくま東京勉強会#46 Azureセッション資料
わんくま東京勉強会#46 Azureセッション資料わんくま東京勉強会#46 Azureセッション資料
わんくま東京勉強会#46 Azureセッション資料Shinichiro Isago
 
わんくま東京勉強会#46 Azureセッション資料
わんくま東京勉強会#46 Azureセッション資料わんくま東京勉強会#46 Azureセッション資料
わんくま東京勉強会#46 Azureセッション資料guest628c07
 
[db tech showcase Tokyo 2017] A15: レプリケーションを使用したデータ分析基盤構築のキモ(事例)by 株式会社インサイトテ...
[db tech showcase Tokyo 2017] A15: レプリケーションを使用したデータ分析基盤構築のキモ(事例)by 株式会社インサイトテ...[db tech showcase Tokyo 2017] A15: レプリケーションを使用したデータ分析基盤構築のキモ(事例)by 株式会社インサイトテ...
[db tech showcase Tokyo 2017] A15: レプリケーションを使用したデータ分析基盤構築のキモ(事例)by 株式会社インサイトテ...Insight Technology, Inc.
 
[Cloud OnAir] ケーススタディから学ぶ GCP で行うデータ エンジニアリング 2019年6月6日 放送
[Cloud OnAir] ケーススタディから学ぶ  GCP で行うデータ エンジニアリング 2019年6月6日 放送[Cloud OnAir] ケーススタディから学ぶ  GCP で行うデータ エンジニアリング 2019年6月6日 放送
[Cloud OnAir] ケーススタディから学ぶ GCP で行うデータ エンジニアリング 2019年6月6日 放送Google Cloud Platform - Japan
 

Similaire à Qlik Gold ClientテクニカルDeep-Diveセッション (20)

[DI12] あらゆるデータをビジネスに活用! Azure Data Lake を中心としたビックデータ処理基盤のアーキテクチャと実装
[DI12] あらゆるデータをビジネスに活用! Azure Data Lake を中心としたビックデータ処理基盤のアーキテクチャと実装[DI12] あらゆるデータをビジネスに活用! Azure Data Lake を中心としたビックデータ処理基盤のアーキテクチャと実装
[DI12] あらゆるデータをビジネスに活用! Azure Data Lake を中心としたビックデータ処理基盤のアーキテクチャと実装
 
複数DBのバックアップ・切り戻し運用手順が異なって大変?!運用性の大幅改善、その先に。。
複数DBのバックアップ・切り戻し運用手順が異なって大変?!運用性の大幅改善、その先に。。 複数DBのバックアップ・切り戻し運用手順が異なって大変?!運用性の大幅改善、その先に。。
複数DBのバックアップ・切り戻し運用手順が異なって大変?!運用性の大幅改善、その先に。。
 
ほんとに使える?Big Data SQL検証結果から見る、その有益性(性能編)
ほんとに使える?Big Data SQL検証結果から見る、その有益性(性能編)ほんとに使える?Big Data SQL検証結果から見る、その有益性(性能編)
ほんとに使える?Big Data SQL検証結果から見る、その有益性(性能編)
 
Data platformdesign
Data platformdesignData platformdesign
Data platformdesign
 
VisualStudio2010ReadyDay Azureセッション資料
VisualStudio2010ReadyDay Azureセッション資料VisualStudio2010ReadyDay Azureセッション資料
VisualStudio2010ReadyDay Azureセッション資料
 
既存システムへの新技術活用法 ~fluntd/MongoDB~
既存システムへの新技術活用法 ~fluntd/MongoDB~既存システムへの新技術活用法 ~fluntd/MongoDB~
既存システムへの新技術活用法 ~fluntd/MongoDB~
 
YAPC::Asia 2008 Tokyo - Pathtraq - building a computation-centric web service
YAPC::Asia 2008 Tokyo - Pathtraq - building a computation-centric web serviceYAPC::Asia 2008 Tokyo - Pathtraq - building a computation-centric web service
YAPC::Asia 2008 Tokyo - Pathtraq - building a computation-centric web service
 
Observability, Service Mesh and Microservices
Observability, Service Mesh and MicroservicesObservability, Service Mesh and Microservices
Observability, Service Mesh and Microservices
 
[Cloud OnAir] 最新アップデート Google Cloud データ関連ソリューション 2020年5月14日 放送
[Cloud OnAir] 最新アップデート Google Cloud データ関連ソリューション 2020年5月14日 放送[Cloud OnAir] 最新アップデート Google Cloud データ関連ソリューション 2020年5月14日 放送
[Cloud OnAir] 最新アップデート Google Cloud データ関連ソリューション 2020年5月14日 放送
 
AWS Black Belt Techシリーズ AWS Data Pipeline
AWS Black Belt Techシリーズ  AWS Data PipelineAWS Black Belt Techシリーズ  AWS Data Pipeline
AWS Black Belt Techシリーズ AWS Data Pipeline
 
Autonomous を支える技術、Oracle Database 18c デモンストレーション
Autonomous を支える技術、Oracle Database 18c デモンストレーションAutonomous を支える技術、Oracle Database 18c デモンストレーション
Autonomous を支える技術、Oracle Database 18c デモンストレーション
 
Managed Instance チートシート
Managed Instance チートシートManaged Instance チートシート
Managed Instance チートシート
 
hbstudy#06
hbstudy#06hbstudy#06
hbstudy#06
 
Terraformを活用した自動化デモ_F5-NGINX_Community-20200805
Terraformを活用した自動化デモ_F5-NGINX_Community-20200805Terraformを活用した自動化デモ_F5-NGINX_Community-20200805
Terraformを活用した自動化デモ_F5-NGINX_Community-20200805
 
EmbulkとDigdagとデータ分析基盤と
EmbulkとDigdagとデータ分析基盤とEmbulkとDigdagとデータ分析基盤と
EmbulkとDigdagとデータ分析基盤と
 
EmbulkとDigdagとデータ分析基盤と
EmbulkとDigdagとデータ分析基盤とEmbulkとDigdagとデータ分析基盤と
EmbulkとDigdagとデータ分析基盤と
 
わんくま東京勉強会#46 Azureセッション資料
わんくま東京勉強会#46 Azureセッション資料わんくま東京勉強会#46 Azureセッション資料
わんくま東京勉強会#46 Azureセッション資料
 
わんくま東京勉強会#46 Azureセッション資料
わんくま東京勉強会#46 Azureセッション資料わんくま東京勉強会#46 Azureセッション資料
わんくま東京勉強会#46 Azureセッション資料
 
[db tech showcase Tokyo 2017] A15: レプリケーションを使用したデータ分析基盤構築のキモ(事例)by 株式会社インサイトテ...
[db tech showcase Tokyo 2017] A15: レプリケーションを使用したデータ分析基盤構築のキモ(事例)by 株式会社インサイトテ...[db tech showcase Tokyo 2017] A15: レプリケーションを使用したデータ分析基盤構築のキモ(事例)by 株式会社インサイトテ...
[db tech showcase Tokyo 2017] A15: レプリケーションを使用したデータ分析基盤構築のキモ(事例)by 株式会社インサイトテ...
 
[Cloud OnAir] ケーススタディから学ぶ GCP で行うデータ エンジニアリング 2019年6月6日 放送
[Cloud OnAir] ケーススタディから学ぶ  GCP で行うデータ エンジニアリング 2019年6月6日 放送[Cloud OnAir] ケーススタディから学ぶ  GCP で行うデータ エンジニアリング 2019年6月6日 放送
[Cloud OnAir] ケーススタディから学ぶ GCP で行うデータ エンジニアリング 2019年6月6日 放送
 

Plus de QlikPresalesJapan

2024-05-07 TECH TALK Talend Data Quality
2024-05-07 TECH TALK Talend Data Quality2024-05-07 TECH TALK Talend Data Quality
2024-05-07 TECH TALK Talend Data QualityQlikPresalesJapan
 
Talend Studioのビッグデータ対応機能のご紹介 - Hadoop, HDFS, Hive, HBase, Spark, NoSQL
Talend Studioのビッグデータ対応機能のご紹介 - Hadoop, HDFS, Hive, HBase, Spark, NoSQLTalend Studioのビッグデータ対応機能のご紹介 - Hadoop, HDFS, Hive, HBase, Spark, NoSQL
Talend Studioのビッグデータ対応機能のご紹介 - Hadoop, HDFS, Hive, HBase, Spark, NoSQLQlikPresalesJapan
 
2024/04/25 Qlik医療データ活用勉強会_第36回_202404.pptx
2024/04/25 Qlik医療データ活用勉強会_第36回_202404.pptx2024/04/25 Qlik医療データ活用勉強会_第36回_202404.pptx
2024/04/25 Qlik医療データ活用勉強会_第36回_202404.pptxQlikPresalesJapan
 
Qlik TECH TALK 組織のメタデータを一元管理「Talend Data Catalog」のご紹介
Qlik TECH TALK 組織のメタデータを一元管理「Talend Data Catalog」のご紹介Qlik TECH TALK 組織のメタデータを一元管理「Talend Data Catalog」のご紹介
Qlik TECH TALK 組織のメタデータを一元管理「Talend Data Catalog」のご紹介QlikPresalesJapan
 
Qlik Tips 20240416 Qlik Senseのトレンド線の係数の計算方法
Qlik Tips 20240416 Qlik Senseのトレンド線の係数の計算方法Qlik Tips 20240416 Qlik Senseのトレンド線の係数の計算方法
Qlik Tips 20240416 Qlik Senseのトレンド線の係数の計算方法QlikPresalesJapan
 
Qlik Tips - 2024/04/16 Capacity データ消費の確認
Qlik Tips - 2024/04/16 Capacity データ消費の確認Qlik Tips - 2024/04/16 Capacity データ消費の確認
Qlik Tips - 2024/04/16 Capacity データ消費の確認QlikPresalesJapan
 
Talend Studioで独自関数を実装して呼び出す - グローバルルーチンとカスタムルーチンJar
Talend Studioで独自関数を実装して呼び出す - グローバルルーチンとカスタムルーチンJarTalend Studioで独自関数を実装して呼び出す - グローバルルーチンとカスタムルーチンJar
Talend Studioで独自関数を実装して呼び出す - グローバルルーチンとカスタムルーチンJarQlikPresalesJapan
 
Qlik TECHTALK Qlik Cloud 日本リージョン開設!テナント作成と移行方法を解説
Qlik TECHTALK Qlik Cloud 日本リージョン開設!テナント作成と移行方法を解説Qlik TECHTALK Qlik Cloud 日本リージョン開設!テナント作成と移行方法を解説
Qlik TECHTALK Qlik Cloud 日本リージョン開設!テナント作成と移行方法を解説QlikPresalesJapan
 
Talend Cloudの管理プラットフォーム Talend Management Consoleのご紹介
Talend Cloudの管理プラットフォームTalend Management Consoleのご紹介Talend Cloudの管理プラットフォームTalend Management Consoleのご紹介
Talend Cloudの管理プラットフォーム Talend Management Consoleのご紹介QlikPresalesJapan
 
【Qlik 医療データ活用勉強会】-速報-令和4年度DPC「退院患者調査」データの活用
【Qlik 医療データ活用勉強会】-速報-令和4年度DPC「退院患者調査」データの活用【Qlik 医療データ活用勉強会】-速報-令和4年度DPC「退院患者調査」データの活用
【Qlik 医療データ活用勉強会】-速報-令和4年度DPC「退院患者調査」データの活用QlikPresalesJapan
 
Talend StudioでAPIを開発 - SOAP/RESTのサービス開発手法
Talend StudioでAPIを開発 - SOAP/RESTのサービス開発手法Talend StudioでAPIを開発 - SOAP/RESTのサービス開発手法
Talend StudioでAPIを開発 - SOAP/RESTのサービス開発手法QlikPresalesJapan
 
Direct QueryのカスタムSQL(Qlik Tips ~ Qlik を使いこなす!スキルアップ勉強会)
Direct QueryのカスタムSQL(Qlik Tips ~ Qlik を使いこなす!スキルアップ勉強会)Direct QueryのカスタムSQL(Qlik Tips ~ Qlik を使いこなす!スキルアップ勉強会)
Direct QueryのカスタムSQL(Qlik Tips ~ Qlik を使いこなす!スキルアップ勉強会)QlikPresalesJapan
 
Talend Studioの汎用JDBCコンポーネントを使う - JDBC API
Talend Studioの汎用JDBCコンポーネントを使う - JDBC APITalend Studioの汎用JDBCコンポーネントを使う - JDBC API
Talend Studioの汎用JDBCコンポーネントを使う - JDBC APIQlikPresalesJapan
 
20240319 Qlik Tips 折れ線チャートの時系列予測についての説明
20240319  Qlik Tips  折れ線チャートの時系列予測についての説明20240319  Qlik Tips  折れ線チャートの時系列予測についての説明
20240319 Qlik Tips 折れ線チャートの時系列予測についての説明QlikPresalesJapan
 
どうしてそうなったのか?機械学習モデルで「結果」の「理由」を知るキードライバー分析
どうしてそうなったのか?機械学習モデルで「結果」の「理由」を知るキードライバー分析どうしてそうなったのか?機械学習モデルで「結果」の「理由」を知るキードライバー分析
どうしてそうなったのか?機械学習モデルで「結果」の「理由」を知るキードライバー分析QlikPresalesJapan
 
TECH TALK Talend Administration Center の紹介
TECH TALK Talend Administration Center の紹介TECH TALK Talend Administration Center の紹介
TECH TALK Talend Administration Center の紹介QlikPresalesJapan
 
【Qlik 医療データ活用勉強会】機能評価係数Ⅱの内訳データの分析  -その2-
【Qlik 医療データ活用勉強会】機能評価係数Ⅱの内訳データの分析  -その2-【Qlik 医療データ活用勉強会】機能評価係数Ⅱの内訳データの分析  -その2-
【Qlik 医療データ活用勉強会】機能評価係数Ⅱの内訳データの分析  -その2-QlikPresalesJapan
 
Qlik What's New - February 2024 リリースの新機能のご紹介
Qlik What's New - February 2024 リリースの新機能のご紹介Qlik What's New - February 2024 リリースの新機能のご紹介
Qlik What's New - February 2024 リリースの新機能のご紹介QlikPresalesJapan
 
20240213_TechTalk_TalendStudio.pptx
20240213_TechTalk_TalendStudio.pptx20240213_TechTalk_TalendStudio.pptx
20240213_TechTalk_TalendStudio.pptxQlikPresalesJapan
 
20240206 Qlik Tips Pivot Straight TBL の改善
20240206 Qlik Tips Pivot Straight TBL の改善20240206 Qlik Tips Pivot Straight TBL の改善
20240206 Qlik Tips Pivot Straight TBL の改善QlikPresalesJapan
 

Plus de QlikPresalesJapan (20)

2024-05-07 TECH TALK Talend Data Quality
2024-05-07 TECH TALK Talend Data Quality2024-05-07 TECH TALK Talend Data Quality
2024-05-07 TECH TALK Talend Data Quality
 
Talend Studioのビッグデータ対応機能のご紹介 - Hadoop, HDFS, Hive, HBase, Spark, NoSQL
Talend Studioのビッグデータ対応機能のご紹介 - Hadoop, HDFS, Hive, HBase, Spark, NoSQLTalend Studioのビッグデータ対応機能のご紹介 - Hadoop, HDFS, Hive, HBase, Spark, NoSQL
Talend Studioのビッグデータ対応機能のご紹介 - Hadoop, HDFS, Hive, HBase, Spark, NoSQL
 
2024/04/25 Qlik医療データ活用勉強会_第36回_202404.pptx
2024/04/25 Qlik医療データ活用勉強会_第36回_202404.pptx2024/04/25 Qlik医療データ活用勉強会_第36回_202404.pptx
2024/04/25 Qlik医療データ活用勉強会_第36回_202404.pptx
 
Qlik TECH TALK 組織のメタデータを一元管理「Talend Data Catalog」のご紹介
Qlik TECH TALK 組織のメタデータを一元管理「Talend Data Catalog」のご紹介Qlik TECH TALK 組織のメタデータを一元管理「Talend Data Catalog」のご紹介
Qlik TECH TALK 組織のメタデータを一元管理「Talend Data Catalog」のご紹介
 
Qlik Tips 20240416 Qlik Senseのトレンド線の係数の計算方法
Qlik Tips 20240416 Qlik Senseのトレンド線の係数の計算方法Qlik Tips 20240416 Qlik Senseのトレンド線の係数の計算方法
Qlik Tips 20240416 Qlik Senseのトレンド線の係数の計算方法
 
Qlik Tips - 2024/04/16 Capacity データ消費の確認
Qlik Tips - 2024/04/16 Capacity データ消費の確認Qlik Tips - 2024/04/16 Capacity データ消費の確認
Qlik Tips - 2024/04/16 Capacity データ消費の確認
 
Talend Studioで独自関数を実装して呼び出す - グローバルルーチンとカスタムルーチンJar
Talend Studioで独自関数を実装して呼び出す - グローバルルーチンとカスタムルーチンJarTalend Studioで独自関数を実装して呼び出す - グローバルルーチンとカスタムルーチンJar
Talend Studioで独自関数を実装して呼び出す - グローバルルーチンとカスタムルーチンJar
 
Qlik TECHTALK Qlik Cloud 日本リージョン開設!テナント作成と移行方法を解説
Qlik TECHTALK Qlik Cloud 日本リージョン開設!テナント作成と移行方法を解説Qlik TECHTALK Qlik Cloud 日本リージョン開設!テナント作成と移行方法を解説
Qlik TECHTALK Qlik Cloud 日本リージョン開設!テナント作成と移行方法を解説
 
Talend Cloudの管理プラットフォーム Talend Management Consoleのご紹介
Talend Cloudの管理プラットフォームTalend Management Consoleのご紹介Talend Cloudの管理プラットフォームTalend Management Consoleのご紹介
Talend Cloudの管理プラットフォーム Talend Management Consoleのご紹介
 
【Qlik 医療データ活用勉強会】-速報-令和4年度DPC「退院患者調査」データの活用
【Qlik 医療データ活用勉強会】-速報-令和4年度DPC「退院患者調査」データの活用【Qlik 医療データ活用勉強会】-速報-令和4年度DPC「退院患者調査」データの活用
【Qlik 医療データ活用勉強会】-速報-令和4年度DPC「退院患者調査」データの活用
 
Talend StudioでAPIを開発 - SOAP/RESTのサービス開発手法
Talend StudioでAPIを開発 - SOAP/RESTのサービス開発手法Talend StudioでAPIを開発 - SOAP/RESTのサービス開発手法
Talend StudioでAPIを開発 - SOAP/RESTのサービス開発手法
 
Direct QueryのカスタムSQL(Qlik Tips ~ Qlik を使いこなす!スキルアップ勉強会)
Direct QueryのカスタムSQL(Qlik Tips ~ Qlik を使いこなす!スキルアップ勉強会)Direct QueryのカスタムSQL(Qlik Tips ~ Qlik を使いこなす!スキルアップ勉強会)
Direct QueryのカスタムSQL(Qlik Tips ~ Qlik を使いこなす!スキルアップ勉強会)
 
Talend Studioの汎用JDBCコンポーネントを使う - JDBC API
Talend Studioの汎用JDBCコンポーネントを使う - JDBC APITalend Studioの汎用JDBCコンポーネントを使う - JDBC API
Talend Studioの汎用JDBCコンポーネントを使う - JDBC API
 
20240319 Qlik Tips 折れ線チャートの時系列予測についての説明
20240319  Qlik Tips  折れ線チャートの時系列予測についての説明20240319  Qlik Tips  折れ線チャートの時系列予測についての説明
20240319 Qlik Tips 折れ線チャートの時系列予測についての説明
 
どうしてそうなったのか?機械学習モデルで「結果」の「理由」を知るキードライバー分析
どうしてそうなったのか?機械学習モデルで「結果」の「理由」を知るキードライバー分析どうしてそうなったのか?機械学習モデルで「結果」の「理由」を知るキードライバー分析
どうしてそうなったのか?機械学習モデルで「結果」の「理由」を知るキードライバー分析
 
TECH TALK Talend Administration Center の紹介
TECH TALK Talend Administration Center の紹介TECH TALK Talend Administration Center の紹介
TECH TALK Talend Administration Center の紹介
 
【Qlik 医療データ活用勉強会】機能評価係数Ⅱの内訳データの分析  -その2-
【Qlik 医療データ活用勉強会】機能評価係数Ⅱの内訳データの分析  -その2-【Qlik 医療データ活用勉強会】機能評価係数Ⅱの内訳データの分析  -その2-
【Qlik 医療データ活用勉強会】機能評価係数Ⅱの内訳データの分析  -その2-
 
Qlik What's New - February 2024 リリースの新機能のご紹介
Qlik What's New - February 2024 リリースの新機能のご紹介Qlik What's New - February 2024 リリースの新機能のご紹介
Qlik What's New - February 2024 リリースの新機能のご紹介
 
20240213_TechTalk_TalendStudio.pptx
20240213_TechTalk_TalendStudio.pptx20240213_TechTalk_TalendStudio.pptx
20240213_TechTalk_TalendStudio.pptx
 
20240206 Qlik Tips Pivot Straight TBL の改善
20240206 Qlik Tips Pivot Straight TBL の改善20240206 Qlik Tips Pivot Straight TBL の改善
20240206 Qlik Tips Pivot Straight TBL の改善
 

Qlik Gold ClientテクニカルDeep-Diveセッション