• 使用を開始する
  • 関連ドキュメント

データ マネージャーの要件と制限は何ですか?

Assets Data Manager for Jira Service Management Cloud is a Premium and Enterprise only feature that is currently in Open Beta development. View and vote on our list of upcoming features.

If you find a bug or have questions, please reach out to Atlassian Support or the Atlassian Community.

アセット データ マネージャーは非常に大きなデータ セットを処理できるように構築されていますが、ロードには上限があります。

これらの各制限には、ローカル システムへの変更を伴う可能性がある回避策や、データ マネージャーでのデータの構造の変更を伴う可能性のある回避策があります。

必要な最小ディスク容量はどれくらいですか?

必要な最小ディスク容量は、(the total size of local files) * (number of days of storage) で計算できます。

Cleanse and Import クライアントはローカル システムで実行されます。これはローカルで実行されるミドルウェア クライアントであるため、処理できるデータ量は、システムのハードウェアと設定に完全に依存します。

大きなファイルをロードしたり、データを頻繁に追加したりする場合は、データを保持するのに十分なディスク容量があることを確認する必要があります。ディスク領域を節約するには、14 日より前に処理されたファイルを削除することを検討してください。

ツールまたはデータベースのデータを使用しているが、ファイルは使用していない場合は、ディスク容量の要件が軽減される可能性があります。

例:

If you have 10 CSV files that are less than 100mb, you will need 100mb * 14 days = 1.5gb in available disk space (on top of any OS requirements).

必要な最小メモリはいくつですか?

Cleanse and Import クライアントはシステム上でローカルに実行されるため、大きなファイルを読み込んだり、データを頻繁に追加したりする場合は、クライアントを実行するのに十分な RAM があることを確認する必要があります。

CSV などのファイルのデータを使用するものの、ツールやデータベースからは使用しないことで、必要なメモリ容量を減らすことができます。

例:

If you are using Flat Files and have 75,000 objects, we recommend having at least 8gb of memory available.

If you are using SQL or APIs and have 175,000 objects, we recommend having at least 8gb of memory available.

一部のアダプターは、すべてのデータがメモリにロードされる場所でも機能するため、最初のロード時にメモリへの影響を必要に応じて確認および調整する必要があります。

以下のサイズ設定ガイドは、考慮する必要があるストレージ容量を判断するのに役立ちます。

データ マネージャーのサイズ設定ガイド

フラット ファイル

コンピュート オブジェクトの数

フラット ファイル ソースの数

ローカル サーバーのメモリ (Gb)

ローカル サーバーの追加ストレージ (Gb)

1000

3

8

50

25,000

4

8

50

50,000

5

8

50

100,000です

6

8

50

250,000

8

16

80

500,000

10

16

80

1,000,000

12

16

100

  • 今後 3 年間でオブジェクトの数が 15% 増加すると想定しています。

SQL & ODBC または API

コンピュート オブジェクトの数

ソースへの直接接続数

ローカル サーバーのメモリ (Gb)

ローカル サーバーの追加ストレージ (Gb)

1000

3

8

N/A

25,000

4

8

N/A

50,000

5

8

N/A

100,000です

6

8

N/A

250,000

8

16

N/A

500,000

10

16

N/A

1,000,000

12

16

N/A

  • 今後 3 年間でオブジェクトの数が 15% 増加すると想定しています。

  • 上記の表は、SQL & ODBC または API 経由でデータソースに接続する場合の参考にできます。ただし、すべてのデータをメモリに読み込む QualysServiceNowFNMS/Flexera One アダプターは除きます。

  • アダプター クライアント ジョブを初めて実行するときは、メモリ使用量を監視して、十分なメモリがあることを確認してください。フラット ファイルと SQL & ODBC または API コネクタを組み合わせて使用している場合は、2 つの推奨事項のうち数字の大きい方を参照してください。

最大インポート サイズはどれくらいですか?

アセット データ マネージャーは、クラウドの Jira Service Management 内で実行されます。これはクラウドベースのシステムであるため、すべてのユーザーがこのサービスを利用できるようにして効率性を維持するため、いくつかのハード制限が設けられています。

ImportScore に基づくインポートの最大サイズは 40,000 です。

最大インポート サイズは、そのインポートの ImportScore を求めることで計算できます。システムにある既存のデータ ソースの数、さまざまなデータ ソースにわたるデータのカーディナリティ、属性の複雑さ、現在 UI を使用しているユーザーの数など、その他の要因もジョブの速度や成功に影響を与える可能性があります。

ImportScore は、マップされた属性の数をオブジェクト クラスのクレンジングされたレコードの合計数で乗算し、1,000 で割ることによって計算できます。

ImportScore (per object class) =

numOfMappedAttributes x sumOfCleansedRecords (for this object class) / 1000

  • インポートの属性が 7 個で、クレンジングされたレコードが 20 万個である場合、ImportScore は 1,400 です。

  • インポートの属性が 16 個で、クレンジングされたレコードが 8 万個である場合、ImportScore は 1,280 です。

ジョブの ImportScore を減らすにはどうすればいいですか?

最大 ImportScore よりも大きいインポートを行おうとすると、 インポート結果 画面に次のメッセージが表示されます。

ImportScore が上限を超えているため、このインポート リクエストを処理できません。ImportScore とその削減方法についてご確認ください。

この問題のソリューションは、このインポートの ImportScore を減らしてもう一度やり直すことです。インポートの ImportScore を減らすには 3 つの方法があります。ほとんどの場合、次のオプションのいずれかを選択するだけで済みます。

  1. 属性の数を減らす - ほとんどの場合、すべてのデータ ソースのすべての属性が必要なわけではありません。ImportScore を減らすには、属性マッピングを設定するときに属性を <ignore> に割り当てることで、インポートされる属性の総数を減らせます。

  2. クレンジング ルールの追加 - クレンジング ルール は、重複またはエラーのあるレコードを削除することで、インポートのサイズを縮小するのに役立ちます。

  3. データ ソースの数を減らす - 場合によっては、すべての データ ソース が必要なわけではありません。データ ソースのリストを確認して、不要なものを削除します。

許可される重要な属性の最大数はいくつですか?

重要な属性は、オブジェクト クラスごとに 56 個使用できます。

重要な属性とは、データ内で正確かつ一貫して表されていることを確認するためにデータ ソースと比較される属性です。[属性] 画面でその属性を編集するときに [重要] チェックボックスをオンにすることで、任意の属性を重要として選択できます。

インポートされた重要な属性は、データ ソースと比較されます。属性のデータが、比較されたすべてのソースと一致する場合、その属性には検証済みフラグが与えられます。

 

さらにヘルプが必要ですか?

アトラシアン コミュニティをご利用ください。