お知らせ:当社は、お客様により充実したサポート情報を迅速に提供するため、本ページのコンテンツは機械翻訳を用いて日本語に翻訳しています。正確かつ最新のサポート情報をご覧いただくには、本内容の
英語版を参照してください。
1. Zoho DataPrepとは?
Zoho DataPrepは、詳細なセルフサービス型のデータ準備ツールです。組織が複数のデータソースから大量のデータをモデリング、クレンジング、準備、強化、整理し、データ分析やデータウェアハウス用に高品質なデータを提供できるよう支援します。コーディングの知識は一切不要です。
2. Zoho DataPrepのクイックウォークスルーセッションを受けることはできますか?
3. Zoho DataPrep 2.0の新機能は?
最近、DataPrepの2.0バージョンをリリースしました。これにより、エンドツーエンドのパイプラインを従来よりも簡単に作成でき、ビジュアルパイプラインビルダーでデータの品質や移動を完全にコントロールできます。このパイプラインビルダーでは、複数のデータソースからデータを取り込み、データブレンディングなど各種変換を行い、1つのパイプライン内で複数の宛先にエクスポートすることが可能です。パイプライン全体をスケジュールできるため、オーケストレーションや管理、監視も簡単になります。ただし、既存のDataPrep 1.0のデータセットを2.0のパイプラインにマッピングし、データセットをグループ化してパイプラインとして表示する必要があります。2.0の詳細な新機能はこちらをご覧ください。
4. 最新のZoho DataPrep 2.0バージョンに移行するには?
画面上部の「新規バージョンを試す」オプションから、DataPrep 2.0バージョンへ移行できます。1.0から2.0へのデータ移行手順は、移行ガイドをご覧ください。1.0から2.0へのデータ移行方法を説明するクイック動画もご用意しています。
5. Zoho Analytics内でZoho DataPrepの機能を利用するには?
Zoho DataPrep追加機能をZoho Analytics内で利用できます。データのインポート時にデータの準備オプションからアクセスするか、その他オプションからデータの準備を選択し、すでにZoho Analyticsに存在するデータをクリーンアップできます。
6. Zoho DataPrep追加機能を使用してZoho Analytics内の既存データを整備するにはどうすればいいですか?
画面上部のその他オプションをクリックし、「データの準備」オプションを選択すると、Zoho Analytics内に既に存在するデータをクリーンアップできます。また、DataPrepのインポートフローを利用してZoho AnalyticsからZoho DataPrepへデータを移動し、Zoho DataPrepのすべての機能を活用することも可能です。
7. Zoho DataPrepからZoho Analyticsの既存テーブルにデータをインポートできますか?
Zoho Analyticsでは、DataPrepから直接データをインポートすることはできません。ただし、Zoho DataPrepでZoho Analyticsを送信先として追加し、パイプラインを実行することで、既存テーブルにデータを反映できます。
8. Zoho DataPrepでサポートされているコネクタは何ですか?
Zoho DataPrepでは現在、以下のコネクタがサポートされています。また、今後さらに追加を予定しています。
- Zoho Analytics
- Zoho CRM
- Salesforce
- Zoho Bigin
- Zoho Creator
9. Zoho DataPrepのデータをZoho Analyticsにインポートしたり、その逆も可能ですか?
はい。Zoho DataPrepのデータをZoho Analyticsにシームレスにインポートすることができます。Zoho Analyticsのデータをインポートセクションにて、Zoho DataPrepコネクターをご利用いただけます。同様に、Zoho DataPrepでZoho Analyticsコネクターを使用して、DataPrepからデータをインポートおよびエクスポートすることも可能です。
Zoho DataPrepにアップロードされたデータへは一切アクセスいたしません。すべてのデータは当社データセンターで暗号化されています。私たちが収集するのは、商品や各種機能のご利用状況などの基本的な情報のみで、これによりサービスの向上や改善を図っています。お客様の情報を外部に共有することはなく、社内評価の目的のみに利用いたしますのでご安心ください。
11. Zoho DataPrepで同時に許可されているパイプラインスケジュール数はいくつですか?
Zoho DataPrepでは、任意の利用可能な送信先を追加し、スケジュールの詳細を設定し、頻度を指定することで、複数のパイプラインスケジュールを同時に実行できます。ただし、処理可能な行数はご利用のサブスクリプションに基づき制限されます。
12. 1つのステージで作成できる最大列数は?
Zoho DataPrepでは、1つのステージにつき最大400列までサポートしています。これにより、大量のデータも効率的に準備できます。
13. Zoho DataPrepでファイルサイズの制限なくインポートできますか?
JSONおよびXMLファイルは最大20MB、その他の対応ファイルは最大100MBまでインポート可能です。対応ファイル形式はCSV、TSV、JSON、HTML、XLS、XLSX、XMLです。
14. Zoho DataPrepで一度にインポートできるファイルやテーブルの数は?
Zoho DataPrepでは、一度に最大10件のファイルまたはテーブルをインポートできます。
15. Zoho DataPrepで毎月処理できる行数は?
16. Zoho DataPrepのエディションの違いと価格は?
Zoho DataPrepの各エディションと価格についてはこちらをご覧ください。
17. データセットの品質問題(無効な値など)でエクスポートに失敗した場合はどうすればよいですか?
エクスポートが以下のようなエラーで失敗した場合は、データ内の無効な値を修正する必要があります。
1. データセットの品質が設定された最小基準を下回っているため、エクスポートが中止されました。
2. 送信先で承認されていない値がデータセット内に存在するため、エクスポートに失敗しました。
データ内の無効な値を見つける手順は以下の通りです:
1. Job概要 -
Outputタブに移動します。
2. Data品質記号をクリックして、無効なカラムを表示します。
3.無効なカラムの特定後、
編集PipelineオプションをJob概要ページでクリックし、
Studioページへ移動します。適切な
変換を使用して無効な値を修正し、パイプラインを再実行してください。
4. サンプルには無効な値が含まれていなくても、全データには存在する場合があります。その場合は、最後のデータ準備ステージへ移動し、右側のペインでSample Strategy横の編集アイコンをクリックし、Erroneous sampleを選択して適用をクリックします。
これにより、サンプルデータ内の無効な値が表示されます。無効な値を修正し、ジョブを再度実行してください。
18.受注データを[パッケージ]データに変換するだけで、.txtファイルを.csvにZoho DataPrepで変換できますか?
直接変換は利用できませんが、テキストファイルをインポートし、データを準備した後、CSVファイルとしてエクスポートできます。
19. スケジュール実行でCloud Sourcesにエクスポートできるデータ件数に制限はありますか?
データ件数の制限はありませんが、エクスポート時にバッチサイズの制限が適用されます。バッチサイズの制限についての詳細はこちらをご覧ください。
20. 接続の再認証方法
Zoho DataPrepでは、再認証が必要な場合、スケジュールやその他の実行が失敗することがあります。組織から削除された、または無効になったユーザーのスケジュールを引き継ぐことを再認証と呼びます。次のいずれかの条件に該当する場合、スケジュールの再認証が必要です:
- スケジュールを設定したユーザーが組織から削除された場合
- スケジュールを設定したユーザーが無効になった場合
- 使用中の接続が削除された、またはユーザーがいなくなった場合
スケジュールの編集に失敗し、下記のエラーが表示される場合は、以下の手順でスケジュールの再認証を行ってください。
次のいずれかの場所で再認証オプションをクリックできます。
1. パイプラインビルダーで、データ データ元アイコンを右クリックし、「Datasource 詳細」オプションを選択します 。または、データ データ元アイコンを一度クリックしてデータ データ元の詳細を表示します。 「再認証」オプションは、スケジュール作成者が無効化または組織から削除された場合、もしくは使用中の接続が削除されたりユーザーと共有されていない場合など、Datasource 詳細が失敗した際に表示されます。
2. パイプラインビルダーで、該当データセットのスタジオページを開き、Rulesetアイコン
をクリックし、次にData データ元設定アイコンをクリックしてください。「再認証」オプションは、スケジュール作成者が無効化または組織から削除された場合、もしくは使用中の接続が削除されたりユーザーと共有されていない場合など、Data データ元 詳細が失敗した際に表示されます。
Dataデータ元詳細画面で、再認証オプションをクリックして接続を再認証します。再認証が完了すると、スムーズにデータのスケジュールを継続できます。
トランスフォームステージがジョブ概要でCachedと表示される場合、そのステージのルールや依存している上流ノードに変更がないため、データの再処理が行われていないことを意味します。
例として、下記のパイプラインを見てみましょう。

下記は例のパイプラインにおけるスケジュールインポート設定です。

最初の手動実行(テスト実行)では、「見込み客2023」と「見込み客2024」の子データセットに
Cachedステータスが表示されます。これは、append変換時にすでに処理済みのためです。そのため、既存データで手動実行を行うと、該当ステージは再利用されCachedとしてマークされ、その他のトランスフォームステージは「
完了」として表示されます。
一方、パイプラインを再実行した場合(既存データでの手動実行や、インポート設定が「データをインポートしない」となっている他の実行)で新たなルールが追加されていなければ、そのステージのステータスは「Cached」となります。
ルールや入力データに変更がないため、Googleドライブ以外のトランスフォームステージはキャッシュされます。

22. ステージがジョブ概要で「Not run」ステータスを表示するのはいつですか?
ジョブ概要内のステージが「Not run」ステータスを表示するのは、以下の場合です。
- 既存データでの手動実行
- インポート設定が「データをインポートしない」となっている実行
- セクション単位での実行
このような場合、パイプラインは新たにデータ元から取得するのではなく、以前にインポートしたデータを利用します。そのため、該当するインポートステージは「Not Run」と表示されます。
例:
例えば、異なるソースから「見込み客 2023」と「見込み客 2024」という2つのデータセットがあるとします。これらをインポートし、結合(追加)して、宛先に追加します。
1. 既存データで手動実行した場合、両方のインポートステージが「Not Run」と表示されます。これはデータが再取得されていないためです。
2. 後で、「見込み客 2024」データセットのみにルールを追加してセクション実行した場合、「見込み客 2024」の変換ステージのみが実行され、「完了」と表示されます。インポートおよびエクスポートステージは、データが再インポートまたは再プッシュされていない場合、「Not Run」と表示されることがあります。