免責事項

このドキュメントの資料は情報提供のみを目的としています。ここで説明する製品は、製造元の継続的な開発プログラムにより、予告なく変更されることがあります。Nuix は、このドキュメントまたはここで説明する製品に関して、いかなる表明または保証も行いません。Nuix は、この資料またはここで説明する製品の使用から生じる、またはこれに関連する、直接的、間接的、偶発的、結果的または特別な損害、損失、費用または経費について、一切責任を負いません。

© Nuix Canada Inc. 2024 All Rights Reserved

前書き

このガイドでは、自動化ワークフロー設計 Web コンポーネントのオプションとオプションについて説明します。このドキュメントはリファレンスのように機能します。目次を使用して、知りたいトピックを探してください。

Automate ソフトウェアおよびこのドキュメントには、バグ、エラー、またはその他の制限が含まれている可能性があります。Automate ソフトウェアまたはこのドキュメントで問題が発生した場合は、Nuix サポートにお問い合わせください。

このガイドで使用されるスタイル

注意:このアイコンは、有効なオプションなど、追加の説明が提供されていることを示します。
ヒント:このアイコンは、いくつかの特に便利な情報が提供されていることを示します。おそらく、アプリケーションを使用して特定の動作を実現する方法です。
警告:このアイコンは、望ましくない動作を回避するのに役立つ情報を強調表示します。

強調:このスタイルは、メニュー、オプション、またはリンクの名前を示します。

注意:このスタイルは、そのまま使用する必要があるコードを示し、ファイルパス、パラメーター名、またはNuix検索クエリを参照できます。

1. ワークフローの編集

ワークフローは、ライブラリ セクションの Automate で管理されます。

ワークフローを編集、削除、非アクティブ化、またはアクティブ化するには、ライブラリからワークフローを選択し、ワークフロー名の右側にある dropdown ボタンをクリックします。

新しいワークフローを作成するには、目的のライブラリで 追加+ワークフロー ボタンをクリックします。ワークフローはさまざまな方法で作成できます。

  • 空のワークフロー: 空のキャンバスから始まる新しいワークフローを作成します。

  • テンプレート: 既存のテンプレートから開始してワークフローを構築します。

  • ワークフロー ウィザード: 一連の質問に答えることで、データを処理してエクスポートするワークフローを作成します。

  • ワークフロー ファイル: 以前に作成したワークフロー ファイルをアップロードします。

パラメータは、ワークフロー内で、検索クエリ、ファイル パス、プロダクション セット名などのユーザー入力を受け入れるすべてのフィールドで静的テキストとともに使用できます。詳細については、Parameters Guideを参照してください。

1.1. 操作アクション

操作リスト ボタンを使用すると、操作に対して次の操作を実行できます。

  • 追加 (image:../_images/plus.svg[width=12pt]) ワークフローへの操作です。

  • 削除する (image:../_images/minus.svg[width=12pt]) ワークフローから選択した操作。

  • 上に移動 (image:../_images/up.svg[width=12pt]) ワークフローで選択した操作。

  • 下に移動 (image:../_images/down.svg[width=12pt]) ワークフローで選択した操作。

  • 探す (image:../_images/search.svg[width=12pt]) は名前別の操作リストにあります。

さらに、行動 操作リスト メニューを使用して次のアクションを実行できます。

  • 有効 / 無効にする: 無効化された操作はワークフローの実行に影響を与えません。

  • スキップ可能にする / Skippableを削除する: 操作が スキップ可能 とマークされている場合、ユーザーは操作の実行中に操作の実行をスキップできます。

スキップ可能な操作により、ジョブの実行が予期しない状態になる可能性があります。これらは、後続のワークフロー ロジックがスキップされた操作の影響を受けない場合にのみ有効にする必要があります。
  • ソフトフェイルを有効にする / ソフトフェイルを無効にする: ソフトフェイル とマークされた操作は、エラーが発生した場合でもワークフローの実行を停止しません。

  • フィールドの上書きを有効にする / フィールドの上書きを無効にする: フィールドの上書き とマークされたオペレーションでは、そのすべてのフィールドがオペレーション名で始まり、その後にフィールド名が続くパラメータで上書きできます (例: {set_purview_case_case_identifier_type}. )。

  • ワークフローの挿入: ワークフローファイルの操作を選択した位置に挿入します。

  • 切り取り:選択した操作を切り取ります(CTRL+X)

  • コピー: 選択した操作をコピーします (CTRL+C)。

  • 貼り付け: 選択した位置に切り取りまたはコピーした操作を貼り付けます (CTRL+V)。

  • 削除: 選択した操作を削除(Del)します。

2. 操作

操作は、実行されるプラットフォームによって分類されます。

操作に複数のプラットフォームがある場合、たとえば SQLへのメタデータ 操作が Nuix ケースから SQL サーバーにデータをエクスポートする場合、最も固有のプラットフォーム (この例では SQL) の下に文書化されます。

2.1. Azure ストレージの運用

これらの操作は、Azure Storage アカウントに関連するアクションを実行します。

2.1.1. Azureコンテナコピー

この操作では、Microsoft AzCopy コマンドを使用して、Azure コンテナーの内容を別の Azure コンテナーにコピーします。

次の設定を構成できます。

  • ソースストレージコンテナのURL: ソースストレージコンテナのURL

  • ソース ストレージ アカウントの SAS トークン: ソースコンテナのSASアクセストークン。トークンを作成するには、https://learn.microsoft.com/en-us/azure/cognitive-services/translator/document-translation/create-sas-tokens?tabs=Containers を参照してください。

  • 宛先ストレージコンテナのURL: 保存先のコンテナのURLです

  • 宛先ストレージ アカウントの SAS トークン: 宛先コンテナのSASアクセストークン

  • コマンドラインフラグ: オプションで、AzCopy コマンドの追加のコマンド ライン フラグ。

2.1.2. Azure コンテナーのダウンロード

この操作では、Microsoft AzCopy コマンドを使用して、Azure コンテナーの内容をローカル ストレージにダウンロードします。

次の設定を構成できます。

  • ストレージ コンテナの URL:保存容器のURLです

  • ストレージ アカウントの SAS トークン: SAS アクセス トークン。トークンを作成するには、https://learn.microsoft.com/en-us/azure/cognitive-services/translator/document-translation/create-sas-tokens?tabs=Containers を参照してください

  • ダウンロード場所:データのダウンロード先フォルダーです

2.1.3. Azure ストレージ アカウント接続の構成

この操作により、Azure Storage アカウントへの接続に使用される構成が設定されます。この操作は、Azure Container Copy と Azure Container Download を除く、すべての Azure Storage 関連の操作に必要です。

Azure ストレージ アカウント IDAzure ストレージ アカウント 型のパラメータとして指定する必要があります。

2.1.4. Azure ストレージ アカウント コンテナーの作成

この操作により、構成された Azure ストレージ アカウントにコンテナーが作成されます。

コンテナ名 は、https://learn.microsoft.com/en-us/rest/api/storageservices/naming-and-referencing-containers--blobs--and- で説明されている Azure 要件を尊重するように正規化されます。メタデータ#コンテナ名

2.1.5. Azureストレージアカウントコンテナの削除

この操作により、構成された Azure ストレージ アカウント内のコンテナーが削除されます。

2.1.6. Azure ストレージ アカウント SAS トークンを生成する

この操作により、構成された Azure ストレージ アカウントに SAS アクセス トークンが生成されます。

2.2. ブレインスペース

これらの操作により、Nuix ケースと Brainspace の間でデータが転送され、Brainspace でさまざまな操作を管理できるようになります。

2.2.1. Brainspaceデータセットを設定する

この操作はBrainspace環境に接続し、次の設定を使用して、指定されたデータセットIDを取得します。

  • Brainspace APIURL: https://app.brainslace.local などの Brainspace 環境への URL

  • 証明書の指紋: オプション、Brainspace アプリ サーバーの SHA-256 フィンガープリント 証明書が自己署名であっても信頼されるべきです

  • APIキー: API キー。この値は、Brainspace 管理ページ → コネクタ → API 認証から取得できます。

  • データセット識別子

    • ID: Brainspace データセット ID.

    • 名前: ブレインスペースのデータセット名

    • 名前(正規表現): Brainspace のデータセット名と一致させるための正規表現です

  • 既存のデータセット: ケースが存在しない場合のアクション:

    • *データセットがまだ存在しない場合はクローンを作成します*ソースデータセットのクローンを作成して、新しいデータセットを作成します。

    • *既存のデータセットのみを使用する*データセットが存在しない場合、エラーが発生します。

  • クローン設定: データセットを複製する際の設定です

    • グループをコピーする:ソースデータセットのグループを新しく作成したデータセットにコピーします。

    • グループに新しいデータセットを追加する:新しく作成したデータセットを指定したグループに追加します

2.2.2. Brainspaceにアイテムをロードする

この操作は、アイテムのテキストとメタデータをNuixケースからエクスポートし、Brainspaceにロードします。

次の設定を構成できます。

  • スコープクエリ: Brainspace にロードするアイテムを選択するための Nuix クエリ。

  • 標準メタデータをエクスポートする: アイテムの標準メタデータをブレインスペースにエクスポート

  • プロファイルからカスタムメタデータをエクスポートする: オプション。Brainspace にエクスポートする追加のメタデータに使用するメタデータ プロファイル。 このオプションを使用する場合は、カスタムフィールドマッピングファイル を指定する必要があります。

  • カスタムフィールドマッピングファイル: カスタム メタデータ プロファイルの Brainspace へのマッピングを定義する JSON マッピング ファイル

  • 本番セットからDocIDをエクスポートする: チェックすると、DocID番号をエクスポートするプロダクションセットの名前

  • で本文テキストをトリミングする: チェックすると、Brainspace にロードする前にアイテムの本文テキストがトリミングされる後の文字サイズ

アイテムの本文がトリミングされると、問題のアイテムのBrainspaceのフィールド*トリミングされたテキスト*が`true`に設定されます。
*失敗したアイテムにタグを付ける*オプションの動作は、リーガルエクスポート操作の場合と同じです。

サンプル*カスタムフィールドマッピングファイル*マッピング`Custom Field 1Custom Field 2`という名前の2つのカスタムNuixフィールド:

{
  "name": "Custom Mapping",
  "fields": [
    {
      "name": "Custom Field 1",
      "mapTo": "STRING"
    },
    {
      "name": "Custom Field 2",
      "mapTo": "ENUMERATION",
      "faceted": true
    }
  ]
}

2.2.3. BrainspaceBuildを管理する

この操作は、Brainspaceデータセットのビルドを管理します。

次の設定を構成できます。

  • 前のビルドが完了するのを待ちます: 運用開始時に実行していたビルドが完了するのを待ちます

  • データセットを構築する: データセットのビルドをトリガーします

*Brainspaceにアイテムをロードする*操作の後に*データセットを構築する*オプションを使用して、ロードされたアイテムを参照できるようにする必要があります。
  • ビルドが完了するのを待ちます: この操作でトリガーされたビルドが完了するのを待ちます

[待機]オプションが選択されていて、割り当てられた時間内にビルドが完了しない場合、操作は失敗します。
この操作の進行率は、経過したタイムアウトを反映しており、ビルドの進行状況を示すものではありません。

2.2.4. タグをBrainspaceに伝播する

この操作は、タグの選択として、Nuixアイテムから対応するBrainspaceドキュメントにタグ値を伝播します。

次の設定を構成できます。

  • スコープクエリ: タグを伝播する Nuix アイテムを取得するクエリ

  • Nuixルートタグ: Nuixのルートタグの名前

この操作を使用する場合、Nuixでは、たとえば`Relevancyのようなルートタグが作成されることが期待されます。次に、Nuixアイテムには、ルートタグの下にサブタグ値(Relevancy|RelevantRelevancy|Not Relevantなど)を割り当てる必要があります。ルートNuixタグはBrainspaceタグ(この例ではRelevancy)にマップされ、Nuixサブタグ値はBrainspaceの選択肢(この例ではRelevantNot Relevant`)にマップされます。
Brainspaceでは、これらは単一選択タグにマップされるため、Nuixアイテムにはサブタグ値を1つだけ含める必要があります。
`Relevancy|Not Relevant|Personal`などのネストされたサブタグ値はサポートされていません。
この操作は以前のタグの選択を更新しますが、Nuixにサブタグが存在しないアイテムは更新しません。回避策として、ドキュメントに以前のタグの選択肢が含まれていてはならないことを示すには、そのドキュメントを新しい専用の選択肢に割り当てます(例:Relevancy|Unassigned)。

2.2.5. Brainspaceからメタデータを取得する

この操作は、Brainspaceからメタデータフォームアイテムを読み取り、Nuixアイテムに適用されます。

次の設定を構成できます。

  • Nuixスコープクエリ: 更新する項目を選択するNuixクエリ

  • 脳空間スコープ

    • すべてのアイテム: データセット内のすべての Brainspace アイテムからメタデータを取得します。

    • ノート: 指定した Notebook 内の Brainspace アイテムからのみメタデータを取得します

  • 一致するアイテムにタグを付ける:ブレインスペースアイテムにマッチしたNuixアイテムにつけるタグです

  • Brainspaceタグを取得する: Brainspace のアイテムに割り当てられたタグを取得するかどうかを選択します 、一致する Nuix アイテムにタグを適用するときに使用するプレフィックスを選択します

  • Brainspace分類子のスコアを取得する: 分類子に対応するブレインスペース フィールドの値 にするかどうかを選択します。これらのフィールドは、数値型で、名前に score という単語が含まれていると識別されます。

  • Brainspaceフィールドを取得する: Brainspace からメタデータ フィールドを取得するかどうかを選択します Nuix アイテムにカスタム メタデータとして割り当てるために、どの Brainspace フィールドを取得するかを選択します

2.3. AI型

これらの操作は、Gen AI サービスを使用して Nuix アイテムのエンリッチメントを実行します。

2.3.1. Gen AI接続を構成する

この操作は、Gen AI サービスへの接続に使用される構成を設定します。

  • Gen AI サービス ID: Gen AIサービスのID、{gen_ai_service_id}

  • オーバーライドモデル: 設定すると、Gen AI サービスで構成されたモデルが、以下に設定された値で上書きされます。

  • モデル: オーバーライドモデル が設定されている場合は、後続の Gen AI 操作で使用するモデルです。

2.3.2. Gen AI 推定トークン

この操作では、スコープ内の各ドキュメントに対してプロンプトを実行するために必要なトークンの数を推定します。

次のオプションを構成できます。

  • スコープクエリ: トークンのサイズを推定するアイテムを選択するための Nuix クエリ。

  • サンプルで実行する: 分析を実行するサンプルサイズ。

  • コンテンツの場所

    • アイテムテキスト: 項目本文のトークン数を推定します。

    • カスタムメタデータ: カスタム メタデータ フィールドのトークン数を推定します。

    • 画像: 文書画像のトークン数を推定します。

    • メタデータプロファイルフィールド: メタデータ プロファイルからフィールドのトークン数を推定します。

画像のトークンの推定については、ドキュメント ページが長方形であり、トークン化中に各ページに 6 つの画像ブロックが必要であると想定して計算が実行されます。
  • 結果メタデータフィールド: プロンプトトークンのカウントをカスタムメタデータとして保存します

  • メタデータプロファイルを作成する: 設定されている場合、トークン数を報告するフィールドを含むメタデータ プロファイルが作成されます。

  • 分析したアイテムにタグを付ける: 分析したアイテムに付けるタグです。

  • 失敗したアイテムにタグを付ける: 失敗したアイテムに付けるタグです。

Gen AI サービスの応答は、各ドキュメントにプレフィックス GenAI が付いたカスタム メタデータとして記録されます。さらに、次のシステム メタデータが記録されます。

  • GenAI|System|Model: 該当する場合、最後の分析に使用されたモデル。

  • GenAI|System|Service: 前回の分析に使用されたサービスのホスト名。

  • GenAI|System|Warning: 前回の分析中に発生した警告(ある場合)。

  • GenAI|System|Error: 最後の分析中に発生したエラー(ある場合)。

2.3.3. Gen AI エンティティ抽出

この操作では、Gen AI プロンプトを実行して、範囲内の各ドキュメントからエンティティを抽出します。

次のオプションを構成できます。

  • スコープクエリ: Gen AIで分析する項目を選択するためのNuixクエリ。

  • サンプルで実行する: 分析を実行するサンプルサイズ。

  • アイテムテキスト

    • 元のアイテムテキスト: 元のアイテムのテキスト本文にプロンプ​​トします。

    • カスタムメタデータ: カスタム メタデータ フィールドの値の入力を促します。

    • メタデータプロファイルフィールド: メタデータ プロファイルからのフィールドのプロンプト。

  • プロンプトを表示する前にコンテンツをサニタイズする: 設定されている場合、コンテンツはリストされている正規表現パターンで検索されます。 一致したパターンは、指定された置換文字列に置き換えられます。式`$1`は、最初に一致したグループを参照するために使用できます。

  • コンテキストプロンプト: Gen AI 分析を初期化するためのプロンプト。

  • ドキュメントプロンプト: Gen AIサービスに送信するドキュメントプロンプト。パラメータ`{item_text}` は、アイテムテキスト*オプションで選択したルールに基づいて抽出されたアイテムテキストに置き換えられます。 パラメータ`{item_properties}*は、すべてのアイテムプロパティのJSON表現に置き換えられます。 パラメータ{email_header}`は、該当する場合はアイテムのメールヘッダーに置き換えられ、そうでない場合は空の文字列に置き換えられます。

  • セパレーターでコンテンツを分割する: トークン制限内に収まるようにドキュメントを分割するときに使用する区切り文字。

  • 抽出プロンプト: エンティティを抽出する方法を説明するプロンプト。

プロンプトの結果は、エンティティの JSON リストであることが予想され、各エンティティは type フィールドと value フィールドを持つ JSON オブジェクトになります。
  • プロンプト応答を整理する: 設定されている場合、プロンプト応答はリストされている正規表現パターンで検索され、 一致したテキストが置き換えられます。

  • 出力JSONスキーマ: 指定された JSON スキーマに従うようにプロンプ​​ト応答を要求します。

すべての Gen AI サービスとモデルが JSON スキーマをサポートしているわけではありません。
  • 温度: Gen AI サービスに設定する 0 から 1 までの温度設定。

  • 最大レスポンストークン: 各プロンプトの応答で受け入れるトークンの最大数。

  • 結果の場所

    • エンティティ: 結果をアイテムのエンティティとして保存します

    • カスタムメタデータ: 指定されたフィールドプレフィックスを使用して、結果をカスタムメタデータとして保存します。

  • メタデータプロファイルを作成する: 設定されている場合、抽出されたエンティティ名に対応するフィールド を含むメタデータ プロファイルが作成されます。

  • 分析したアイテムにタグを付ける: 分析したアイテムに付けるタグです。

  • 失敗したアイテムにタグを付ける: 失敗したアイテムに付けるタグです。

Gen AI サービスの応答は、各ドキュメントにプレフィックス GenAI が付いたカスタム メタデータとして記録されます。さらに、次のシステム メタデータが記録されます。

  • GenAI|System|Model: 該当する場合、最後の分析に使用されたモデル。

  • GenAI|System|Service: 前回の分析に使用されたサービスのホスト名。

  • GenAI|System|Warning: 前回の分析中に発生した警告(ある場合)。

  • GenAI|System|Error: 最後の分析中に発生したエラー(ある場合)。

2.3.4. エンティティの削除

この操作により、アイテムに以前割り当てられたエンティティが削除されます。

特定のエンティティ タイプを削除するように指定することも、スコープ内のアイテムのすべてのエンティティを削除することもできます。

2.3.5. ドキュメントに関する Gen AI プロンプト

この操作では、範囲内の各ドキュメントに対して Gen AI プロンプトが実行され、各ドキュメントのカスタム メタデータ フィールドに結果が記録されます。

次のオプションを構成できます。

  • スコープクエリ: Gen AIで分析する項目を選択するためのNuixクエリ。

  • サンプルで実行する: 分析を実行するサンプルサイズ。

  • アイテムテキスト

    • 元のアイテムテキスト: 元のアイテムのテキスト本文にプロンプ​​トします。

    • カスタムメタデータ: カスタム メタデータ フィールドの値の入力を促します。

    • メタデータプロファイルフィールド: メタデータ プロファイルからのフィールドのプロンプト。

  • プロンプトを表示する前にコンテンツをサニタイズする: 設定されている場合、コンテンツはリストされている正規表現パターンで検索されます。 一致したパターンは、指定された置換文字列に置き換えられます。式`$1`は、最初に一致したグループを参照するために使用できます。

  • コンテキストプロンプト: Gen AI 分析を初期化するためのプロンプト。

  • ドキュメントプロンプト: Gen AIサービスに送信するドキュメントプロンプト。以下のパラメータが利用可能です:

    • パラメータ`{item_text}`は、アイテムテキスト オプションで選択されたルールを使用して抽出されたアイテムテキストに置き換えられます。

    • パラメーター {item_properties} は、すべてのアイテム プロパティの JSON 表現に置き換えられます。

    • パラメータ {email_header} は、該当する場合はアイテムの電子メール ヘッダーに置き換えられ、そうでない場合は空の文字列に置き換えられます。

    • パラメータ`{doc_id}`はアイテムのDocIDに置き換えられます。

    • パラメータ`{item_name}`はアイテム名に置き換えられます。

    • パラメータ`{item_guid}`はアイテム GUID に置き換えられます。

  • セパレーターでコンテンツを分割する: トークン制限内に収まるようにドキュメントを分割するときに使用する区切り文字。

  • コンテンツが最大プロンプトトークンを超えた場合に部分的にプロンプ​​トを表示する: 設定されている場合、各部分ごとに個別のプロンプトが実行されます。設定されていない場合は、 最初の部分のみにプロンプ​​トが実行され、警告が記録されます。

  • 個々のバッチからの応答を保存する: 設定すると、ドキュメントの各部分からの応答がカスタムメタデータフィールドとして保存されます。 GenAI|name|Level x|Part y という名前で、name はプロンプトの名前、x は再帰レベル、y は部品番号です。

  • 迅速な応答のためのコンテキストプロンプト: 前のレベルの応答を要求するときに Gen AI 分析を初期化するためのプロンプト。

  • 部分的な応答に対するコンテンツプロンプト: 前のレベルからの各応答を送信するためのプロンプト。

  • 質問プロンプト: 次の設定で Gen AI サービスに送信するように求める質問:

    • 名前: 質問の名前

    • 促す: ドキュメントコンテンツに使用するプロンプト(レベル 1)

    • 部分的な応答に対するコンテンツプロンプト: 前のレベルからの応答を組み立てるためのプロンプト。このオプションは、部分的にプロンプ​​トを出す場合にのみ適用されます。

最初のプロンプト レベルでは、質問ごとに、コンテキスト プロンプト (存在する場合)、ドキュメント プロンプト、質問プロンプトの順に Gen AI サービスに送信されます。
部分的なプロンプトの場合、後続のプロンプト レベルでは、質問ごとに、部分応答のコンテキスト プロンプト (存在する場合) が Gen AI サービスに送信され、続いて部分応答の複数のコンテンツ プロンプト (トークン制限内) が送信され、最後に質問プロンプトが送信されます。
  • プロンプト応答を整理する: 設定されている場合、プロンプト応答はリストされている正規表現パターンで検索され、 一致したテキストが置き換えられます。

  • JSON出力を解析する: 設定されている場合、プロンプトの回答はJSON辞書として解析され、結果のキーと値はネストされたカスタムメタデータフィールドに保存されます。 データがJSONとして解析できない場合、回答はカスタムメタデータフィールドに文字列として保存されます。日付は、ISO 8601形式(例:2023-12-31T12:00:00Z)または`yyyy-MM-dd形式(例:2023-12-31` )の場合に解析されます。

  • 出力JSONスキーマ: 指定された JSON スキーマに従うようにプロンプ​​ト応答を要求します。

すべての Gen AI サービスとモデルが JSON スキーマをサポートしているわけではありません。
  • フォローアッププロンプトを使用する: 各質問プロンプトの後に Gen AI サービスに送信するフォローアッププロンプト。このオプションは、部分的にプロンプ​​トを表示しない場合にのみ使用できます。

  • 応答が正規表現に一致する場合にのみフォローアッププロンプトを実行します: 各応答に対して、応答が正規表現パターンに一致する場合にのみフォローアッププロンプトが実行されます。

  • フォローアッププロンプトの応答を整理する: 設定されている場合、フォローアッププロンプトの応答でリストされている正規表現パターンが検索され、 一致したテキストが置き換えられます。

  • 温度: Gen AI サービスに設定する 0 から 1 までの温度設定。

  • 最大レスポンストークン: 各プロンプトの応答で受け入れるトークンの最大数。

  • メタデータプロファイルを作成する: 設定されている場合、プロンプトとフォローアッププロンプトの応答に対応するフィールド を含むメタデータプロファイルが作成されます。

  • 分析したアイテムにタグを付ける: 分析したアイテムに付けるタグです。

  • 失敗したアイテムにタグを付ける: 失敗したアイテムに付けるタグです。

Gen AI サービスの応答は、各ドキュメントにプレフィックス GenAI が付いたカスタム メタデータとして記録されます。さらに、次のシステム メタデータが記録されます。

  • GenAI|System|Model: 該当する場合、最後の分析に使用されたモデル。

  • GenAI|System|Service: 前回の分析に使用されたサービスのホスト名。

  • GenAI|System|Warning: 前回の分析中に発生した警告(ある場合)。

  • GenAI|System|Error: 最後の分析中に発生したエラー(ある場合)。

2.3.6. 画像に関する Gen AI プロンプト

この操作では、範囲内のアイテムの画像に対して Gen AI プロンプトを実行し、結果をカスタム メタデータ フィールドに記録します。

画像である Nuix アイテムに対して 画像に関する Gen AI プロンプト 操作を実行する場合、Nuix アイテムにバイナリを保存しておくことをお勧めします。画像ではない Nuix アイテムに対して操作を実行する場合は、最初に「印刷された画像の生成」操作を実行して印刷された画像を生成することをお勧めします。

次のオプションを構成できます。

  • スコープクエリ: Gen AI で転写する項目を選択する Nuix クエリ。

  • サンプルで実行する: 転写を実行するサンプルサイズ。

  • コンテキストプロンプト: Gen AI 転写を初期化するためのプロンプト。

  • 質問プロンプト: Gen AIサービスに送信する質問プロンプト。質問ごとに、 Gen AIサービスにはコンテキストプロンプト(存在する場合)が送信され、続いて画像と質問プロンプトが送信されます。 各質問プロンプトは、他の質問プロンプトとは独立してGen AIサービスに送信されます。 以下のパラメータが利用可能です:

    • パラメーター {page_number} は、プロンプトが実行されているページ番号に置き換えられ、パラメーター {page_transcription} は、カスタム メタデータ GenAI|Transcription|i の値に置き換えられます。ここで、 は、トランスクリプションが実行されているページ番号です。

    • パラメーター {page_number} は、すべてのアイテム プロパティの JSON 表現に置き換えられます。

    • パラメータ {email_header} は、該当する場合はアイテムの電子メール ヘッダーに置き換えられ、そうでない場合は空の文字列に置き換えられます。

    • パラメータ`{doc_id}`はアイテムのDocIDに置き換えられます。

    • パラメータ`{item_name}`はアイテム名に置き換えられます。

    • パラメータ`{item_guid}`はアイテム GUID に置き換えられます。

  • JSON出力を解析する: 設定されている場合、プロンプトの回答はJSON辞書として解析され、結果のキーと値はネストされたカスタムメタデータフィールドに保存されます。 データがJSONとして解析できない場合、回答はカスタムメタデータフィールドに文字列として保存されます。日付は、ISO 8601形式(例:2023-12-31T12:00:00Z)または`yyyy-MM-dd形式(例:2023-12-31` )の場合に解析されます。

  • 出力JSONスキーマ: 指定された JSON スキーマに従うようにプロンプ​​ト応答を要求します。

すべての Gen AI サービスとモデルが JSON スキーマをサポートしているわけではありません。
  • 温度: Gen AI サービスに設定する 0 から 1 までの温度設定。

  • 最大レスポンストークン: 各プロンプトの応答で受け入れるトークンの最大数。

  • 印刷オプション

    • ネイティブ イメージのサブスコープ クエリ:: Gen AIサービスに画像として送信するアイテム。その他のアイテムは印刷され、 印刷された画像がGen AIサービスに送信されます。

    • 非ネイティブ画像はメガピクセルで印刷されます:: 印刷物の場合は、印刷された各ページのサイズをメガピクセル単位で示します。

  • 複数ページのオプション

    • 最大ページ数: Gen AI サービスに送信するアイテムごとの最大ページ数。

    • 各ページでプロンプトを繰り返します:: 設定すると、ドキュメントの各ページでプロンプトが繰り返されます。

    • テキスト出力ページセパレーター:: 複数ページでプロンプトを表示する場合、各ページからの 応答を連結する際に使用する区切り文字。パラメータ`{page_number}`はページ番号に置き換えられます。

    • 最初のページの前に区切り線を追加: 選択すると、ドキュメントの最初のページの前にセパレーターが追加されます。

    • 複数ページのJSONをマージします。: 複数のページでプロンプトを表示するときに、応答が JSON リスト形式で提供され、このオプションが設定されている場合、応答は単一の JSON リストに結合されます。

  • 分析したアイテムにタグを付ける: 分析したアイテムに付けるタグです。

  • 失敗したアイテムにタグを付ける: 失敗したアイテムに付けるタグです。

Gen AI サービスの応答は、各ドキュメントにプレフィックス GenAI が付いたカスタム メタデータとして記録されます。さらに、次のシステム メタデータが記録されます。

  • GenAI|System|Model: 該当する場合、最後の分析に使用されたモデル。

  • GenAI|System|Service: 前回の分析に使用されたサービスのホスト名。

  • GenAI|System|Warning: 前回の分析中に発生した警告(ある場合)。

  • GenAI|System|Error: 最後の分析中に発生したエラー(ある場合)。

2.3.7. Gen AI によるアイテムの転記

この操作では、範囲内のアイテムの画像に対して Gen AI プロンプトが実行され、その結果がドキュメント テキストまたはカスタム メタデータ フィールドとして記録されます。オプションは、Gen AI Prompt On Documents 操作に似ています。

この操作は、画像や PDF ファイルを転記するために使用できます。

画像である Nuix アイテムに対して 画像に関する Gen AI プロンプト 操作を実行する場合、Nuix アイテムにバイナリを保存しておくことをお勧めします。画像ではない Nuix アイテムに対して操作を実行する場合は、最初に「印刷された画像の生成」操作を実行して印刷された画像を生成することをお勧めします。

次のオプションを構成できます。

  • スコープクエリ: Gen AI で転写する項目を選択する Nuix クエリ。

  • サンプルで実行する: 転写を実行するサンプルサイズ。

  • 結果の場所

    • アイテムテキスト: 結果をアイテムテキストに保存します。既存のテキストに追加するか、上書きします。

    • カスタムメタデータ: 結果をカスタムメタデータフィールドに保存します。

  • コンテキストプロンプト: Gen AI 転写を初期化するためのプロンプト。

  • 転写プロンプト: 転写プロンプトの指示。

  • 温度: Gen AI サービスに設定する 0 から 1 までの温度設定。

  • 最大レスポンストークン: 各プロンプトの応答で受け入れるトークンの最大数。

  • 印刷オプション

    • ネイティブ イメージのサブスコープ クエリ:: Gen AIサービスに画像として送信するアイテム。その他のアイテムは印刷され、 印刷された画像がGen AIサービスに送信されます。

    • 非ネイティブ画像はメガピクセルで印刷されます:: 印刷物の場合は、印刷された各ページのサイズをメガピクセル単位で示します。

  • 複数ページのオプション

    • 最大ページ数: Gen AI サービスに送信するアイテムごとの最大ページ数。

    • 各ページでプロンプトを繰り返します:: 設定すると、ドキュメントの各ページでプロンプトが繰り返されます。

    • テキスト出力ページセパレーター:: 複数ページでプロンプトを表示する場合、各ページからの 応答を連結する際に使用する区切り文字。パラメータ`{page_number}`はページ番号に置き換えられます。

    • 最初のページの前に区切り線を追加: 選択すると、ドキュメントの最初のページの前にセパレーターが追加されます。 形式では、このオプションが設定されている場合、応答は単一の JSON リストにマージされます。

  • 分析したアイテムにタグを付ける: 分析したアイテムに付けるタグです。

  • 失敗したアイテムにタグを付ける: 失敗したアイテムに付けるタグです。

Gen AI サービスの応答は、各ドキュメントにプレフィックス GenAI が付いたカスタム メタデータとして記録されます。さらに、次のシステム メタデータが記録されます。

  • GenAI|System|Model: 該当する場合、最後の分析に使用されたモデル。

  • GenAI|System|Service: 前回の分析に使用されたサービスのホスト名。

  • GenAI|System|Warning: 前回の分析中に発生した警告(ある場合)。

  • GenAI|System|Error: 最後の分析中に発生したエラー(ある場合)。

2.3.8. Gen AI によるファイルの文字起こし

この操作では、スコープ内の各ファイルに対して Gen AI プロンプトが実行され、転写されたテキスト ファイルが作成されます。これを使用して、画像や PDF ファイルを転写、説明、または OCR 処理できます。

ソース PDF ファイルは画像にラスタライズされます。残りの項目はそのまま Gen AI プラットフォームに送信されます。

各ソース画像ファイルに対して、対応するテキスト ファイルが 出力テキストファイルフォルダ に書き込まれます。すべてのソース ファイル、転写の成功ステータス、結果のテキスト ファイルのパスとサイズ、および転写エンジンの出力を一覧表示する、summary_report.csv という名前の CSV レポートが生成されます。

操作には次の設定があります。

  • ソース画像ファイルフォルダ:OCRedとなる画像ファイルが入っているフォルダ

  • フォルダーを再帰的にスキャンする: 設定すると、ソースフォルダーが再帰的にスキャンされ、同じフォルダー構造を使用して出力ファイルが作成されます

  • 空でない既存のテキストファイルを含む画像をスキップする:設定すると、宛先フォルダに名前とサイズが0より大きいテキストファイルが存在する場合、画像がスキップされます。

  • ページの正規表現を組み立てる:ページごとに1つの画像ファイルでエクスポートされた複数ページのドキュメントを検出するために使用する正規表現。正規表現には、ドキュメントのベース名を選択するために使用される一致するグループが少なくとも1つ必要です。

  • 出力テキストファイルフォルダ:テキストファイルが作成されるフォルダ

  • 不完全なファイルを保持する:設定されている場合、OCRエンジンからの空のファイルと不完全なテキストファイルは削除されません。

  • コンテキストプロンプト: Gen AI 転写を初期化するためのプロンプト。

温度 および 最大トークン オプションは、ドキュメントの Gen AI プロンプトと同じ動作をします。

2.4. エラスティックサーチ

これらの操作は、Nuix ケースと ElasticSearch の間でデータを転送します。

2.4.1. エラスティックサーチ接続の構成

この操作は、ElasticSearch 環境への接続に使用される構成を設定します。

  • ホスト: ElasticSearch ホスト名 (es.example.com127.0.0.1. など)

  • ホスト: エラスティックサーチ REST API がデプロイされるポート (デフォルトでは 9200. )

  • ユーザー名: 認証するユーザー名

  • パスワード:上記ユーザー名のパスワードです

  • 証明書の指紋: オプション。証明書が自己署名であっても信頼されるべき ElasticSearch 証明書の SHA-256 フィンガープリント。

  • 一括操作: ElasticSearch に一括送信する操作の数。値を大きくすると全体的に増加しますが、より多くのメモリが必要になります

2.4.2. 項目を ElasticSearch にエクスポートする

この操作は、スコープ クエリに一致するアイテムのメタデータを ElasticSearch にエクスポートします。

  • スコープクエリ: ElasticSearch にエクスポートするアイテムを選択する Nuix クエリ。

  • メタデータ プロファイル: エクスポート時に使用する Nuix メタデータ プロファイル

  • インデックス名: エラスティックサーチのインデックス名

  • アイテムのテキストをエクスポート: 選択すると、 メタデータに加えて項目テキストがエクスポートされます。テキストはアイテム プロパティ _doc_text. の下の ElasticSearch にエクスポートされます。

  • 項目テキストをトリム: アイテム テキストからエクスポートする最大文字数。アイテムのテキストがトリミングされている場合、ElasticSearch プロパティ _doc_text_trimmed がアイテムに設定されます。

2.5. ナレッジグラフ

これらの操作は、Knowledge Graph への接続を構成し、プロモーション データを Knowledge Graph に送信します。

2.5.1. ナレッジグラフ接続を構成する

この操作は Nuix Neo でのみ利用可能です。

この操作は、ナレッジ グラフ サービスへの接続に使用される構成を設定します。

ナレッジグラフサービスIDナレッジグラフサービス タイプのパラメータに設定する必要があります。スケジューラでワークフローを送信するときに、ユーザーは Knowledge Graph サービスを選択し、必要に応じてサービスに認証するように求められます。

プレイブックファイル は、アイテムをナレッジ グラフのノードとエッジに変換する Nuix プレイブック ファイルに設定する必要があります。

トランザクションサイズ は、類似したトランザクションをグループ化し、重複を排除するために使用されます。

2.5.2. アイテムをナレッジグラフに昇格する

この操作は Nuix Neo でのみ利用可能です。

この操作により、範囲内のアイテムが Knowledge Graph に送信されます。

2.6. Microsoft Purview

これらの操作は、Microsoft Purview eDiscovery (プレミアム) でアクションを実行します。

Microsoft Purview の概要については、https://learn.microsoft.com/en-us/purview/ediscovery-overview を参照してください。

2.6.1. Purview 接続の構成

この操作により、Purview への接続に使用される構成が設定されます。この操作は、Purview でアクションを実行する他のすべての操作に必要です。

Microsoft Purview サービス IDMicrosoft Purview Service 型のパラメータとして指定する必要があります。

2.6.2. パービューケースの設定

この操作では、次の設定を使用して Purview ケースを選択します。

  • ケース識別子: Purview ケースの 名前 または ID

  • ケースが存在しない場合は作成する 以下の設定で新しいケースを作成します

    • 事件番号: オプションで、ケースに設定するケース番号です。

    • 詳細: オプションで、ケースに設定する説明文。

2.6.3. Purview ケース設定の更新

この操作により、選択した Purview ケースの設定が更新されます。

2.6.4. パービューケースの管理

この操作では、選択した Purview ケースに対して次の管理アクションを実行します。

  • 閉じる: ケースを閉じます。

  • 閉じて削除する: ケースをクローズし、削除を試みます。

  • 再開: 以前に閉じたケースを開きます。

2.6.5. クエリ範囲オブジェクト

この操作は、Purview ケースからオブジェクトを照会し、次のオブジェクトについてパラメータで追跡します。

  • カストディアン: 事件の関係者全員。

  • 保管データソース: 事件に関するすべての保管データソース。

  • 非保管データソース: 事件に関するすべての非保管データソース。

2.6.6. 保管データソースをパービューに追加する

この操作では、次の設定を使用して保管データ ソースを Purview ケースに追加します。

  • データソースファイル: 追加するデータソースのリストを含むファイル

  • データソース: 追加するデータソースを含むテーブル。

2.6.7. 非保管データソースをパービューに追加する

この操作では、次の設定を使用して、非保管データ ソースを Purview ケースに追加します。

  • データソースファイル: 追加するデータソースのリストを含むファイル

  • データソース: 追加するデータソースを含むテーブル。

2.6.8. パービューカストディアンに保留を適用する

この操作では、次の設定を使用して、Purview カストディアンに保留を適用します。

  • ケースカストディアン全員: 選択した Purview ケースのすべての管理者に保留を適用します。

  • カストディアンファイル: 保留を適用する管理者のリストを含むファイル。

  • カストディアン ID JSON: Purview カストディアン ID の JSON 形式のリスト。

  • 完了を待ちます:保留が適用されるまで待ちます

2.6.9. 非保管データ ソースのパービューに保留を適用する

この操作では、次の設定を使用して、Purview の非保管データ ソースに保留を適用します。

  • すべてのケースの非管理データ ソース: 選択した Purview ケース内のすべての非保管データ ソースに保留を適用します。

  • 非保管データソースファイル: 保留を適用する非保管データ ソースのリストを含むファイル。

  • 非保管データソース ID JSON: Purview の非保管データ ソース ID の JSON 形式のリスト。

  • 完了を待ちます:保留が適用されるまで待ちます

2.6.10. パービューカストディアンからホールドを削除する

この操作により、Purview 管理者からの保留が解除されます。

利用可能な設定については、[_適用する_hold_-_purview_custodians] を参照してください。

2.6.11. パービュー非保管データ ソースから保留を削除する

この操作により、Purview の非保管データ ソースから保留が削除されます。

利用可能な設定については、<[_適用する_hold_-_purview_非_custodial_データ_sources] を参照してください。

2.6.12. リリースパービュー管理者

この作戦により、パービューの管理人たちは事件から解放される。

利用可能な設定については、[_適用する_hold_-_purview_custodians] を参照してください。

2.6.13. リリースパービューの非保管データソース

この操作により、Purview の非保管データ ソースがケースから解放されます。

利用可能な設定については、<[_適用する_hold_-_purview_非_custodial_データ_sources] を参照してください。

この操作により、Purview 検索が作成され、データ ソースが検索に追加されます。

クエリに使用できるフィールドの一覧については、https://learn.microsoft.com/en-us/purview/ediscovery-keyword-queries-and-search-conditions を参照してください。

2.6.15. Purview 検索統計の推定

この操作は、Purview 検索の範囲内の項目を推定し、検索からの項目をレビュー セットに追加する前に必要です。

2.6.16. 対象レビューセットに追加

この操作により、Purview レビュー セットが作成され、検索結果がレビュー セットに追加されます。

2.6.17. Purview レビュー セット クエリの作成

この操作では、Purview レビュー セットに適用するクエリを作成します。

クエリに使用できるフィールドの一覧については、https://learn.microsoft.com/en-us/purview/ediscovery-document-metadata-fields を参照してください。

2.6.18. Purview レビュー セット クエリの削除

この操作により、Purview レビュー セット クエリが削除されます。

この操作により、Purview 検索が削除されます。

2.6.20. パービューレビューセットのエクスポート

この操作では、レビュー セットまたはレビュー セット クエリからアイテムをエクスポートします。

エクスポートを転送するには、[_紺碧_container_copy] および [_紺碧_container_download] の操作を参照してください。

2.6.21. 権限エクスポートの変換

この操作は、Purview 圧縮されたディレクトリ構造 (CDS) エクスポートからの電子メールを Nuix 論理イメージ (NLI) に変換します。

この操作は、Teams および Copilot の会話をサポートしていません。この操作は非推奨であり、[_変換する_purview_cds] 操作に置き換えられています。

次の設定を構成できます。

  • パービュー エクスポート フォルダー: Purviewデータをダウンロードしたフォルダーです

  • 結果の NLI ロケーション: 結果のNLIの場所.

  • 高度なオプション: Purview CDS ロードファイルと、アイテムからメタデータを抽出するために使用される列名を識別するために使用される設定。

  • ノイズアイテムを減らす: このオプションは、フィールドで提供される拡張機能からのノイズ項目を削減します*ノイズ拡張機能*。

ノイズ項目を削減するオプションでは、次の条件に一致する子項目が削除されます。

  • *Original_file_extension*は*ノイズ拡張機能*リストにあります

  • Native_extension*は違いますねOriginal_file_extension*

  • Input_path*はOriginal_file_extension*で終わります

  • Compound_path*はInput_pathで始まり、接尾辞`(ex: ../Presentation.pptx/slide25.xml.rels)*`が続きます。

2.6.22. Purview CDS を変換する

この操作により、電子メール、ファイル、会話が Purview 圧縮されたディレクトリ構造 (CDS) エクスポートから Nuix 論理イメージ (NLI) に変換されます。

次の設定を構成できます。

  • パービュー エクスポート フォルダー: Purviewデータをダウンロードしたフォルダーです

  • 結果の NLI ロケーション: 結果のNLIの場所.

  • エクスポートオプション: Purview CDS ロードファイルを識別するために使用される設定

    • メールを RFC 5322 (.eml) に変換する: すべてのメールを標準化されたプロパティを持つ .eml 形式に変換します。このオプションを無効にすると、メールは MAPI 形式で保持されますが、Nuix Engine の古いバージョンでは添付ファイルの解析に一貫性がない可能性があります。

    • 通常の添付ファイルを外す: メールから通常の添付ファイルを削除し、スタブ添付ファイルに置き換えます。このオプションはファミリーアイテムには影響しませんが、MD5 ハッシュの計算には影響します。

    • スタブモダンアタッチメント: 電子メールに最新の添付ファイルのスタブ アイテムを追加します。このオプションはファミリ アイテムには影響しませんが、最新の添付ファイルのないスタンドアロンの電子メールとは異なる MD5 ハッシュ値を生成します。

  • アイテムオプション: 一般項目からメタデータを抽出するために使用される列名。

  • 会話オプション: 会話からメタデータを抽出するために使用される列名。

  • 分割エクスポート: エクスポートを細分化し、指定された最大項目数の複数の部分に分割します。

注記: 場合によっては、分割された`.NLI` ファイルは指定された*分割エクスポート* サイズよりも大きくなったり小さくなったりすることがあります。これは、ファミリを同じロードファイルに保持する必要があるためです。

2.6.23. パービューコンバートアドバンス

この操作により、電子メール、ファイル、会話が Purview MSG または PST エクスポートから Nuix 論理イメージ (NLI) に変換されます。

次の設定を構成できます。

  • パービュー エクスポート フォルダー: Purviewデータをダウンロードしたフォルダーです

  • 結果の NLI ロケーション: 結果のNLIの場所.

  • エクスポートオプション: Purviewエクスポートファイルを識別するために使用される設定

    • メールを RFC 5322 (.eml) に変換する: すべてのメールを標準化されたプロパティを持つ .eml 形式に変換します。このオプションを無効にすると、メールは MAPI 形式で保持されますが、Nuix Engine の古いバージョンでは添付ファイルの解析に一貫性がない可能性があります。

    • 通常の添付ファイルを外す: メールから通常の添付ファイルを削除し、スタブ添付ファイルに置き換えます。このオプションはファミリーアイテムには影響しませんが、MD5 ハッシュの計算には影響します。

    • スタブモダンアタッチメント: 電子メールに最新の添付ファイルのスタブ アイテムを追加します。このオプションはファミリ アイテムには影響しませんが、最新の添付ファイルのないスタンドアロンの電子メールとは異なる MD5 ハッシュ値を生成します。

  • アイテムオプション: 一般項目からメタデータを抽出するために使用される列名。

  • 会話オプション: 会話からメタデータを抽出するために使用される列名。

  • 分割エクスポート: エクスポートを細分化し、指定された最大項目数の複数の部分に分割します。

注記: 場合によっては、分割された`.NLI` ファイルは指定された*分割エクスポート* サイズよりも大きくなったり小さくなったりすることがあります。これは、ファミリを同じロードファイルに保持する必要があるためです。

2.6.24. ロードファイルを Nuix 論理イメージに変換する

この操作は、CSV ロードファイルを Nuix 論理イメージ (NLI) に変換します。

次の設定を構成できます。

  • ロードファイル: 変換するCSVロードファイル。

  • 結果のNLI: 結果の NLI ファイルの場所です。

  • DocID列: ドキュメント ID を含む列の名前、または各項目の一意の識別子。

  • 家族ID列: オプション、家族IDを含む列の名前。

  • パス列: オプション、ドキュメント名を除くドキュメントのパスを含む列の名前。

  • 名前欄: オプション、ドキュメント名を含む列の名前。

  • ネイティブファイル列: オプション、ネイティブ ファイルへのパスを含む列の名前。

  • 管理者の列: オプション。ドキュメントに関連付けられた管理者を含む列の名前。

  • MD5 列: オプション、ドキュメント MD5 を含む列の名前。

  • すべてのフィールドを読み込む: ロードファイルのすべての列を NLI のメタデータ フィールドに変換するには、このオプションを選択します。

  • フィールドメタデータプレフィックス: オプション。NLI のメタデータ フィールドに使用するプレフィックス。

2.6.25. Nuix 論理イメージの作成

この操作により、ローカル フォルダーが Nuix 論理イメージ (NLI) にパッケージ化されます。

次の設定を構成できます。

  • ソースの場所: パッケージ化するフォルダーです

  • 結果の NLI ロケーション: 結果のNLIの場所.

2.7. Google ボルト

これらの操作は、Google Vault でアクションを実行します。

Google Vault の概要については、https://support.google.com/vault/answer/2462365?hl=ja を参照してください。

2.7.1. ボールト接続の構成

この操作により、Google Vault への接続に使用される Google Vault サードパーティ サービス が設定されます。この操作は、Vault でアクションを実行する他のすべての操作に必要です。

Google Vault サービス IDGoogle ボルト サービス 型のパラメータとして指定する必要があります。

2.7.2. Vault の事項を設定する

この操作では、次の設定を使用して Vault 案件を選択します。

  • 物質識別子: Vault の ID名前、または 名前(正規表現) が重要です。

  • 物質状態フィルター: Vault の必要な状態です。

  • 存在しない場合は問題を作成する: 必要な状態フィルターを備えた案件が存在しない場合は、以下の設定で新規案件を作成します

    • 詳細: 件名に設定する説明 (オプション)。

2.7.3. Vault の事項を管理する

この操作では、選択した Vault 案件に対して次の管理アクションを実行します。

  • 閉じる:これで終わります

  • 削除:件削除します

  • 再開: 話を再開します。

  • 削除を取り消す:件の削除を取り消します

2.7.4. Vault に保存されたクエリの作成

この操作では、次の設定を使用して、選択した Vault マターに Vault 保存されたクエリを作成します。

  • クエリ名のプレフィックス: 保存されたクエリの名前に使用されるプレフィックス。

  • データ範囲: 保存されるクエリのデータ範囲

  • 日付範囲を使用する: 以下の設定で、保存されたクエリの対象となるデータをフィルターするための日付範囲を設定します:

    • タイムゾーン: 日付範囲のタイムゾーンです

    • 開始日: 日付範囲の開始日です

    • 終了日: 日付範囲の終了日です

  • 場所と条件を問い合わせる

    • CSVファイルから読み取る: CSVファイルからクエリの場所と用語を読み取ります。

      • 場所ファイルのクエリ: クエリの場所のリストが含まれるファイル。

      • クエリ用語ファイル: 検索用語のリストが含まれるファイルです

    • 手動入力: クエリの場所と用語を手動で入力します。

      • 場所のクエリ: 追加するクエリの場所を含むテーブル。

      • クエリ用語: 追加するクエリ用語を含む表。

A ロケーション は、Vault のクエリと保留に使用される単位です。これは、Google サービス、場所のタイプ、および値を指定します。例:

MAIL,ACCOUNT,user1@example.com
GROUPS,ACCOUNT,group1@example.com

クエリ用語 は、Vault クエリとホールドの対象となるデータに適用されるフィルターです。ここでは、Google サービスとサービス固有の規約を指定します。例:

MAIL,from:user1 subject:Hello has:attachment
GROUPS,from:group1
位置 の場合、利用可能な場所のタイプは選択した Google サービスによって異なります。たとえば、Google 郵便 サービスの場合、メール組織単位組織全体 の位置タイプのみを使用できます。 組織全体 ロケーション タイプも 郵便 サービスでのみ使用できます。

2.7.5. Vault に保存されたクエリのエクスポート

この操作では、次の設定を使用して、選択した Vault マターに Vault エクスポートを作成します。

  • エクスポート名のプレフィックス: エクスポートの名前に使用される接頭辞。

  • 領域: エクスポート用に要求されたデータ領域。

  • メッセージフォーマット: エクスポートされるメッセージのファイル形式です。

  • メールオプション

    • Gmail の機密モードのコンテンツを含める: 機密モードのコンテンツをエクスポートします。

    • 新しいエクスポート システムを使用する: 新しい輸出システムをご利用ください

    • リンクされたドライブ ファイルをエクスポートする: リンクされたドライブ ファイルのリンク エクスポートを作成します。

  • ドライブオプション

    • ファイルに間接的にアクセスできるユーザーのアクセス レベル情報を含める: ファイルに間接的にアクセスできるユーザーのアクセスレベル情報を含めます。

  • 保存されたクエリ識別子のタイプ: 識別子の種類です

  • 保存されたクエリ識別子: 保存されたクエリを検索するために使用される識別子。

  • 完了を待ちます: エクスポートが完了するまで待ちます

メッセージフォーマット Gmail、グループ、チャット、音声サービスにのみ適用されます。

2.7.6. Vault エクスポートのダウンロード

この操作では、次の設定を使用して、選択した Vault マターから Vault エクスポートをダウンロードします。

  • ダウンロード場所: エクスポートをダウンロードするフォルダー。

  • リンクされたエクスポートを明示的に含める: リンクされたエクスポートをダウンロードします。

  • エクスポート識別子のタイプ: 識別子の種類です

  • エクスポート識別子: エクスポートを検索するために使用される識別子。

リンクされたエクスポートは、[_輸出_vault_保存されました_queries] 操作で リンクされたドライブ ファイルをエクスポートする 設定を使用すると作成されます。

2.7.7. Vault エクスポートの設定

この操作では、次の設定を使用して Vault エクスポートを選択します。

  • リンクされたエクスポートを明示的に含める: リンクされたエクスポートを含めます。

  • 完了を待ちます: エクスポートが完了するまで待ちます

  • エクスポート識別子のタイプ: 識別子の種類です

  • エクスポート識別子: エクスポートを検索するために使用される識別子。

2.7.8. 保管庫の追加

この操作では、次の設定を使用して、選択した Vault 案件に Vault ホールドを追加します。

  • 名前の接頭辞を保持する:ホールドの名前に使用される接頭語です

  • メール/グループのオプション

    • 日付範囲を使用する: 以下の設定で日付範囲を設定し、保留の対象となるデータをフィルタリングします:

      • 開始日: 日付範囲の開始日 (UTC)。

      • 終了日: 日付範囲の終了日 (UTC)。

  • ドライブ/チャットのオプション

    • 共有ドライブにアイテムを含める: 共有ドライブにファイルを含めます。

    • チャット スペースに会話を含める: ユーザーがメンバーとして参加していたチャットスペースにメッセージを含めます。

  • 開催場所と期間

    • CSVファイルから読み取る:CSVファイルから保留場所とクエリ条件を読み取ります

      • ホールドロケーションファイル: 保留場所のリストが記載されたファイルです

      • クエリ用語ファイル: 検索用語のリストが含まれるファイルです

    • 手動入力: 保留場所と期間を手動で入力します。

      • 保留場所: 追加するホールドの場所を示した表です。

      • クエリ用語: 追加するクエリ用語を含む表。

ロケーションクエリ用語 の定義と例については、<[_作成する_vault_保存されました_queries] を参照してください。

2.7.9. Vault ホールドから場所を削除する

この操作では、次の設定を使用して、選択した Vault 案件の Vault ホールドから場所を削除します。

  • すべての保留場所: ホールドの場所をすべて削除します。

  • ホールドロケーションファイル: 削除するホールド位置の値のリストを含むファイル。

  • 保留場所: 削除するホールド位置の値を含む表。

  • すべての船倉から取り除く:全ての船倉から指定された場所を撤去します

  • 保留識別子の種類: 識別子の種類です

  • 保留識別子: 保留を見つけるために使用される識別子。

すべての場所が保留から削除されると、保留も削除されます。

2.8. ニュイの調査

これらの操作は、Nuix Investigate で使用するための Nuix ケースのアイテムに対する権限を割り当てます。

2.8.1. アイテムをフォルダーに追加

この操作は、スコープクエリ に一致する Nuix ケースと特定のフォルダー クエリ のアイテムを、指定された フォルダ に割り当てます。

オプション パスに項目を含める が選択されている場合、ルート項目までのパス内のすべての項目 (ルート項目を含む) が含まれます。

2.8.2. フォルダーからアイテムを削除

この操作は、スコープクエリ と特定のフォルダー クエリ から指定された フォルダ に一致する項目を Nuix ケースから削除します。

2.8.3. フォルダーをグループに割り当てる

この操作は、名前 または ID で識別される Nuix Investigate グループフォルダー を割り当てます。

2.9. Nuix ディスカバー

これらの操作は、Nuix ケースと Nuix Discover の間でデータを転送し、Nuix Discover でビルドを管理します。

2.9.1. Nuix Discover 接続の構成

この操作では、Nuix Discover 環境への接続に使用される構成を設定します。

オプションで、ディスカバーサービス を使用して、タイプ ディスカバーサービス のパラメータを指すことができます。スケジューラでのワークフローの送信中に、ユーザーは Nuix Discover サービスを選択し、必要に応じてサービスに対して認証するように求められます。

Nuix Discover サービスを使用しない場合、次のオプションが操作で明示的に定義されます。

  • ホスト名を検出する: Nuix Discover API のホスト名 (例: ringtail.us.nuix.com )

  • APIトークン: 接続する API トークン。このトークンは、Nuix Discover ユーザー管理ページ → ユーザー → ユーザー名 → API アクセス から取得できます。

2.9.2. NuixDiscoverケースを設定する

この操作では、次の設定を使用して、指定されたケース ID を取得します。

  • ケース識別子

    • ID:Nuix DiscoverのケースID

    • 名前:Nuix Discoverのケース名

    • 名前(正規表現):Nuix Discoverのケース名にマッチする正規表現です

  • ファイルリポジトリ: ネイティブ ファイルのアップロードに使用するリポジトリのタイプ。 Nuix Discover ケースの imports フォルダーに対応する Windowsファイル共有 location に設定されたローカル Nuix Discover デプロイメントの場合。 SaaS 展開の場合は、アマゾンS3 リポジトリを使用します。

ファイルリポジトリ*の場所は通常、たとえば`\\DISCOVER.local\Repository\Import\{discover_case_name}*`のようなパスを使用して、NuixDiscoverケースの名前から取得できます。ただし、特定の状況では、インポートフォルダーの名前がNuix Discoverケースの名前と異なる場合があります。たとえば、ケース名にスペースや句読点などの英数字以外の文字が含まれている場合や、同じ名前のケースが2つ存在する場合などです。このシナリオでは、スクリプトを使用してNuix Discoverのケース名を正規化し、予想されるインポートフォルダーを取得できます。
  • 既存のケース: ケースが存在しない場合のアクション:

    • *まだ存在しない場合はクローンケース*ソースケースのクローンを作成して新しいケースを作成します。

    • *既存のケースのみを使用する*ケースが存在しない場合、エラーが発生します。

  • ケースがアクティブになるのを待つ: ケースがアクティブになるまで、指定された時間待ちます

ドキュメントをNuixDiscoverにプロモートする前に、専用の操作で*ケースがアクティブになるのを待つ*オプションを使用して、ドキュメントをアップロードできるようにします。
  • クローン設定: ケースを複製する際の設定です

2.9.3. NuixDiscoverにプロモートする

この操作では、Nuixケースからプロダクションセットをエクスポートし、アイテムをNuixDiscoverにアップロードします。

次の設定を構成できます。

  • 生産セット名:Nuix Discoverに昇格する制作セットの名前

  • 標準メタデータをエクスポートする: アイテムの標準メタデータを Nuix Discover にエクスポートします。チェックを入れると、エクスポートフォルダにメタデータプロファイル のコピーが保存されます

  • プロファイルからカスタムメタデータをエクスポートする: オプション。追加のメタデータを Nuix Discover にエクスポートするために使用するメタデータ プロファイル。この オプションを使用するには、Nuix Discover ケースがカスタム メタデータ プロファイルで定義されているフィールドで構成されていることを確認してください。

  • Nuix Discover でインデックス作成を実行する: ドキュメントがアップロードされた後、Nuix Discover でインデックス作成をトリガーします。

*Nuix Discover でインデックス作成を実行する*オプションを有効にすると、コンテンツが解析され、NuixDiscoverで検索できるようになります。
  • Nuix Discover で重複排除を実行する: ドキュメントがアップロードされた後、Nuix Discover で重複排除をトリガーします。

  • ドキュメントID戦略: Nuix Discover ケースから新しい 一連の ドキュメント番号を割り当てるか、Nuix 生産セット 番号を使用します。

  • レベル: ドキュメントをインポートする Nuix Discover レベル

  • レベルごとのドキュメント: レベルごとのドキュメントの最大数.

  • ファイルタイプ: Nuix Discover ケースにアップロードするコンポーネントを選択してください:

    • *ネイティブ*ファイル

    • *テキスト*Nuix事件より抜粋

    • *PDF*資料の画像

  • 一時エクスポートフォルダ: 一時的な合法的なエクスポートが作成されるフォルダー。アップロード完了後、ネイティブファイルとテキストファイル は一時フォルダーから削除されます

  • 分割エクスポート: エクスポートとアップロードを、指定された最大アイテム数の複数の部分に分割します.

  • Nuix Discover ジョブが完了するまで待ちます: アイテムが Nuix Discover にロードされるまで待ってから、次のアップロード部分に移動するか、操作を完了する前に

メール、連絡先、カレンダーを輸出スキーム、および*失敗したアイテムにタグを付ける*オプションは、法的エクスポート操作と同じ動作をします。

2.9.4. Nuix Discover からメタデータを取得する

この操作は、Nuix Discover のアイテムからメタデータを読み取り、カスタム メタデータまたはタグ Nuix アイテムを適用します。

次の設定を構成できます。

  • Nuixスコープクエリ: 更新する項目を選択するNuixクエリ

アクション: Nuixのアイテムに対して行うアクション

  • タグマッチングアイテム: Nuix DiscoverとNuixケースに存在するアイテムをタグ付けします

  • フィールドの取得: Nuix Discover からフィールドを取得し、カスタム メタデータとして Nuix ケース内の一致するアイテムに適用します

  • 一致するアイテムにタグを付けてフィールドを取得する: 上記の両方のアクションを実行します

Nuix アイテムソースを発見する: Nuix Discover のどこからアイテムを検索できますか

  • すべての文書: Nuix Discover ケース内のすべての文書

  • 保存された検索: 保存された検索条件に一致するアイテム

  • 製造: 制作中のアイテム

  • バインダー:バインダーにアイテムが入っています

Nuix のアイテムと一致する: Nuix Discover のアイテムと一致するアイテムの GUID または Document ID

Nuix でアイテムを見つける: Nuix ケースのアイテムと一致する Document ID または 名前付きフィールド

名前フィールド スコープを使用する場合、ユーザーは Nuix Discover の項目を Nuix ケースの項目と照合するときに使用するフィールドを提供する必要があります

Nuix タグ名: Nuix の発見したアイテムが Nuix ケース内のアイテムと一致する場合に使用するタグ名

CSV をエクスポート: Nuix Discover ドキュメントのフィールド値を CSV ファイルにエクスポートします

Nuix Discoverフィールド:Nuix Discoverから取得するフィールド

Nuix Discover フィールドの値を手動で指定することに加えて、ユーザーは次のように CSV または TSV ファイルからロードすることもできます。

Field Name
[Meta] GUID
Document Type
Created By

2.10. 夜間ECC

これらの操作は、Nuix ECC を使用してアクションを実行します。

2.10.1. Nuix ECC 接続の構成

この操作により、Nuix ECC 環境への接続に使用される構成が設定されます。

オプションで、Nuix ECC サービス を使用して、タイプ Nuix ECC サービス のパラメータを指すことができます。スケジューラでワークフローを送信する際、ユーザーは Nuix ECC サービスを選択するよう求められます。

  • ホスト名: Nuix ECC インスタンスのホスト名

  • エンドポイントタイプ: Nuix ECC エンドポイント タイプ (例: HTTPS. )

  • ユーザー名: Nuix ECC インスタンスに接続するために使用されるユーザー名。

  • パスワード:上記ユーザー名のパスワードです

このフィールドに入力した値は、ワークフローファイルにクリアテキストで保存されます。このフィールドにはパスワードを入力しないでください。代わりに、このフィールドをparameterなどの保護されたパラメーター名に設定し、保護されたパラメーター値を設定する方法についてはセクションProtected Parametersを参照してください。

2.10.2. Nuix ECC ケースのセット

この操作では、次の設定を使用して、Nuix ECC コレクションに使用するケースを設定します。

  • ケース識別子: Nuix ECC ケースの 名前ID名前(正規表現)

  • ケースが存在しない場合は作成する: 指定された Nuix ECC ケースが存在しない場合は、オプションで新しい Nuix ECC ケースを作成します。

2.10.3. Nuix ECC コレクション構成の設定

この操作では、次の設定を使用して、Nuix ECC コレクションに使用する構成を設定します。

  • 構成識別子: Nuix ECC Collection 構成の 名前ID名前(正規表現)

2.10.4. コレクション ソースを Nuix ECC コレクションに追加する

この操作では、次の設定を使用して、Nuix ECC コレクション用に収集するソースを追加します。

  • コレクションソース: 収集元:

    • 識別子: ソースの識別子 (例: LAPTOP-4KYG769 )

    • 識別子の種類: 出典の特定方法を決定するために使用される 名前ID、または 名前(正規表現)

    • ソースの種類: ユーザーが使用しているソースのタイプ (例: Computer )

    • 収集戦略: ソースから収集するときに使用される戦略 (構成を使用する または カスタムパスを使用する )

    • コレクションのカスタムパス: 収集元のカスタム パス。たとえば、C:\Data\Files

収集戦略 構成を使用する を使用する場合、ソースには収集元の場所が事前定義されている必要があります。この設定は、ECC 管理コンソール アプリケーション内から定義されます。

コレクション ソースの値を手動で指定するだけでなく、次のように CSV または TSV ファイルからロードすることもできます。

Identifier  IdentifierType  SourceType  CollectionStrategy  CollectionCustomPaths
LAPTOP-4KYG769  NAME    COMPUTER    PREDEFINED  ""
Server\s\d  NAME_REGEX  COMPUTER    PREDEFINED  ""
119 ID  COMPUTER    CUSTOM_PATH "C:\Data\Files,C:\Users\Admin\Documents,D:\Temp"
CSV または TSV ファイルからコレクション ソースを指定する場合、ユーザーがカスタム パスを使用している場合、パスにはコンマ区切り文字 , を使用する必要があります (例: C:\Data\Files,C:\Users\Admin\Documents)

2.10.5. Nuix ECC エージェントの導入

この操作は、次の設定を使用して Nuix ECC エージェントをコンピュータに展開するために使用されます。

  • サービスアカウントのユーザー名: コンピューター上でコマンドを実行するために使用されるサービス アカウントのユーザー名

  • サービスアカウントのパスワード: パソコンでコマンドを実行する際に使用するサービスアカウントのパスワード

  • コンピュータ名: ECC エージェントを展開するコンピューターの名前 (例: DESKTOP-AZH1K4 )

コンピューター名の値を手動で指定するだけでなく、ユーザーは次のように CSV または TSV ファイルからロードすることもできます。

ComputerName
LAPTOP-4KYG769
DESKTOP-AZH1K4
Server2
  • インストールコマンド: ECC エージェントをコンピューターにインストールするために使用するコマンド

WinRS を使用してエージェントを展開する例:

winrs /r:{computer_name} /u:{username} /p:{password} "msiexec.exe /i PATH_TO_INSTALLER /q /norestart"

PsExec を使用してエージェントを展開する例:

PATH_TO_PSEXEC \\{computer_name} -u {username} -p {password} -nobanner -s msiexec.exe /i PATH_TO_INSTALLER /q /norestart
PATH_TO_INSTALLER は、ECC クライアント インストーラーへのパスです (例: \\Storage\Installers\ECC_Client_Installer.msi)。 PATH_TO_PSEXEC は PsExec 実行可能ファイルへのパスです。たとえば、C:\SysInternals\psexec.exe
install コマンドはカスタム パラメーターを使用し、{computer_name}{username}、および {password} を公開します。ユーザー名とパスワードのパラメーターは常にサービス アカウントのユーザー名とサービス アカウントのパスワードになります。コンピューター名パラメーターは、エージェントがインストールされているコンピューターの名前に変更されます。
  • 失敗した場合はコマンドを再試行します: 初めて実行に失敗した場合にインストール コマンドを再試行します。ユーザーはコマンドを再試行する回数を設定するオプションもあります

  • タイムアウト: エージェントがデプロイされ、Nuix ECC 管理コンソールに表示されるまでの時間。

タイムアウトはコマンドに対するもので、コマンドの実行ごとに適用されます。たとえば、ユーザーがタイムアウトを 2 分に設定し、コマンドの再試行を 5 回まで許可した場合、コマンドが実行されるたびにコマンドは 2 分ごとにタイムアウトになります。コマンドが 5 回失敗した場合、コマンドの合計時間は 10 分になります。

2.10.6. Nuix ECC コレクションを送信する

この操作では、次の設定を使用して Nuix ECC コレクションを ECC に送信します。

  • コレクション名:Nuix ECCコレクションの名前です

Nuix ECC コレクションの名前は、コレクション内に複数のコレクション ソースが含まれる場合に変更される可能性があります。複数のコレクション ソースを含むコレクションの形式は collection_name (1 of 4) です。ここで、コレクション名はコレクションの名前です 1 はコレクション ソースのインデックス、4 はコレクション内のコレクション ソースの合計量です。
  • 収集が完了するまで待ちます: オプションで、Nuix ECC コレクションが完了するまで待ってから、次の操作に進みます。

  • 収集場所:収集したファイルの保存場所です。この場所はすべてのコンピューターで使用できる必要があります。

2.10.7. Nuix ECC エージェントを削除する

この操作は、次の設定を使用して、コンピューター上の Nuix ECC エージェントを削除するために使用されます。

  • サービスアカウントのユーザー名: コンピューター上でコマンドを実行するために使用されるサービス アカウントのユーザー名

  • サービスアカウントのパスワード: パソコンでコマンドを実行する際に使用するサービスアカウントのパスワード

  • コンピュータ名: ECC エージェントを削除するコンピューターの名前 (例: DESKTOP-AZH1K4 )

コンピューター名の値を手動で指定するだけでなく、ユーザーは次のように CSV または TSV ファイルからロードすることもできます。

ComputerName
LAPTOP-4KYG769
DESKTOP-AZH1K4
Server2
  • アンインストールコマンド: コンピューターから ECC エージェントをアンインストールするために使用するコマンド

WinRS を使用してエージェントをアンインストールする例:

winrs /r:{computer_name} /u:{username} /p:{password} "msiexec.exe /x PATH_TO_INSTALLER /q /norestart"

PsExec を使用してエージェントをアンインストールする例:

PATH_TO_PSEXEC \\{computer_name} -u {username} -p {password} -nobanner -s msiexec.exe /x PATH_TO_INSTALLER /q /norestart
PATH_TO_INSTALLER は、ECC クライアント インストーラーへのパスです (例: \\Storage\Installers\ECC_Client_Installer.msi)。 PATH_TO_PSEXEC は PsExec 実行可能ファイルへのパスです。たとえば、C:\SysInternals\psexec.exe
アンインストール コマンドはカスタム パラメーターを使用し、{computer_name}{username}、および {password} を公開します。ユーザー名とパスワードのパラメーターは常にサービス アカウントのユーザー名とサービス アカウントのパスワードになります。コンピューター名パラメーターは、エージェントがインストールされているコンピューターの名前に変更されます。
  • 失敗した場合はコマンドを再試行します: 最初の実行に失敗した場合はアンインストール コマンドを再試行します。ユーザーはコマンドを再試行する回数を設定するオプションもあります

  • タイムアウト: エージェントが削除されるまでの時間

タイムアウトはコマンドに対するもので、コマンドの実行ごとに適用されます。たとえば、ユーザーがタイムアウトを 2 分に設定し、コマンドの再試行を 5 回まで許可した場合、コマンドが実行されるたびにコマンドは 2 分ごとにタイムアウトになります。コマンドが 5 回失敗した場合、コマンドの合計時間は 10 分になります。

2.11. Nuixエンジン

これらの操作は、Nuix エンジンを使用してアクションを実行します。

2.11.1. Nuix の構成

この操作は、Nuix 構成プロファイル および/または Nuix プロファイルを処理します から、Nuix 処理エンジンの設定を定義するために使用されます。 *構成プロファイル*よりも*処理プロファイル*の使用をお勧めします。

デフォルトでは、Nuixはユーザー固有のフォルダーfolderに構成プロファイルを保存します。すべてのユーザーが構成プロファイルを使用できるようにするには、対応する*.npfファイルを`%programdata%\Nuix\Profiles*`にコピーします。
Automate Workflow では、証拠処理設定 (日付処理、MIME タイプ、並列処理)、法的エクスポート (エクスポート タイプ - 部分的、ファイルの読み込み - 部分的、並列処理) など、構成プロファイルの設定のサブセットのみがサポートされます。
ワーカーの構成

ワーカー設定は、Nuix設定(上記参照)から抽出するか、ワークフローで明示的に提供できます。

ローカルワーカーの場合、これらの設定を使用して、ローカルワーカーの数、ワーカーごとのメモリ、およびワーカーの一時ディレクトリを指定できます。

Nuix は、ローカル ワーカーなしでの OCR 操作および法的エクスポート操作の実行をサポートしていません。これらの操作のローカル ワーカーに値 0 が指定されている場合、Automate Workflow は 1 つのローカル ワーカーと要求された数のリモート ワーカーで操作を開始します。
オプション リモートワーカーを活用する を有効にすると、Automate はエンジンが許可する限りのワーカーを追加しようとします。たとえば、ユーザーのエンジンが 5 人のワーカーを許可している場合、操作は 5 人のワーカーを追加しようとします。

並列処理設定は、次のパラメーターを使用して設定することもできます。

  • {local_worker_count}-実行するローカルワーカーの数。

  • {local_worker_memory}-各ローカルワーカーのメモリ(MB単位)。

パスワード設定

パスワードは、Nuixのデータのロードおよび再ロード中に使用されます。このセクションでは、パスワードファイルのパスワードリストの使用を指定できます。

キーストア設定

キーストアは、Nuix でのデータのロードおよび再ロード中に使用されます。このセクションでは、キーストア情報を含む CSV または TSV ファイルを指定できます。

キーストア構成ファイルには次の列が必要です。

  • :キーストアへのファイルパス

  • パスワード:キーストアのパスワード

  • エイリアス:キーストアから使用するエイリアス

  • AliasPassword:エイリアスのパスワード

  • 目標:ノート保存フォーマットファイル`(NSF)`

サンプル*Lotus Notes ID*:

Path	Password	Alias	AliasPassword	Target
C:\Stores\Lotus\user.id	password			example.nsf
C:\Stores\Lotus\automate.id	password123			automate.nsf
Lotus Notes ID*ストアを設定する場合、ターゲットはノートストレージフォーマットファイル`(NSF)の*フルパス*または*ファイル名*にすることができます。さらに、IDファイルを任意の(NSF)ファイルに適用するために、ターゲットを**`に設定できます。

PGPPKCS12、*Lotus Notes ID*を示すサンプル:

Path	Password	Alias	AliasPassword	Target
C:\Stores\PGP\0xA8B31F11-sec.asc		test@example.com	test_password
C:\Stores\PKCS12\template.keystore	password	ssl_cert
C:\Stores\Lotus\user.id	password			example.nsf
C:\Stores\PKCS12\example.keystore	password123	example-sample
C:\Stores\PGP\0x9386E293-sec.asc		user@example.com	abcd1234
キーストア ファイルを構成するとき、すべての列に値があるわけではありません。このファイルをワークフローに追加する前に、値が正しい列にあることを確認してください。

次のパラメータを使用して、単一のキーストアを設定できます。

  • {keystore_file_path} - キーストアへのパス。

  • {keystore_file_password} - キーストアのパスワード。

  • {keystore_file_alias} - キーストアから使用するエイリアス。

  • {keystore_file_alias_password} - エイリアスのパスワード。

  • {keystore_file_target} - メモ保存形式ファイル`(NSF)`。

単一のキーストアを使用する場合、`{keystore_file_path}`パラメータには、キーストアを追加するための有効なファイルパスが含まれている必要があります。

キーストア ファイルは、次のパラメーターを使用して設定することもできます。

  • {keystore_tsv} - キーストア CSV または TSV ファイルへのファイル パス。

実行プロファイルにNuixプロファイルが必要

Automate でワークフローを使用する場合、オプション すべてのNuixプロファイルを実行プロファイルで提供する必要があります を選択すると、ワークフローで使用されるすべての Nuix プロファイルが実行プロファイルで明示的に提供される必要があります。プロファイルがない場合、ジョブは開始されません。

2.11.2. 使用事例

この操作は、指定された*メソッド*オプションに応じて、既存のNuixケースを開くか、作成します。

パラメータsettingを設定すると、ケースのタイムゾーンを上書きできます。有効なタイムゾーンIDのリストについては、Joda Time Zonesを参照してください。

2.11.3. 複合ケースに追加

この操作は、現在開いているNuixケースに既存のケースを追加します。

現在のNuixケースは複合ケースでなければなりません。そうでない場合、この操作は実行中に失敗します。

デフォルトでは、複合ケースは閉じられ、すべての子ケースが追加された後に再度開かれます。オプション 複合ケースのリロードをスキップ はこの動作を変更し、複合ケースをリロードしません。このオプションを使用すると、複合ケースが更新されないため、一部の操作が正しく実行されない場合があります。

2.11.4. 証拠を追加

この操作は、Nuixのケースに証拠を追加します。

Nuixケースに追加されるデータのタイプは、*範囲*設定を使用して定義されます。

  • パスアイテム:ファイルまたはフォルダを証拠コンテナとして追加します。

  • パスの内容:フォルダの内容を証拠コンテナとして追加します

  • 個別の証拠としてのパスの内容:ベースフォルダ内のファイルまたはサブフォルダごとに個別の証拠コンテナを作成します。

  • ロードファイル: コンコーダンス、CSV、または EDRM XML 1.2 ロードファイルの内容を証拠コンテナとして追加します。

  • 証拠リスト: リストの各行にエビデンス コンテナーを作成します。 Add Evidence from Evidence listing. 参照

  • Google Vault エクスポート: Google Vault エクスポートごとに証拠コンテナを作成し、ドライブリンク エクスポート ファイルを子アイテムとして追加します。Add Evidence from Google Vault Exports を参照してください。

  • データセット: データ セットの内容をエビデンス コンテナーとして追加します。 Add Evidence from Data Set. 参照

  • Microsoftグラフ: Microsoft Graph を使用して、チーム、カレンダー、連絡先、Sharepoint のデータを証拠コンテナーに追加します。 Add Evidence from Microsoft Graph. 参照

  • 共有ポイント: SharePoint データをエビデンス コンテナーに追加します。 Add Evidence from SharePoint. 参照

  • 両替: Exchange データを証拠コンテナーに追加します。 Add Evidence from Exchange. 参照

  • Enterprise Vault: Enterprise Vault データを証拠コンテナに追加します。 Add Evidence from Enterprise Vault. 参照

  • S3: S3 データを証拠コンテナに追加します。 Add Evidence from S3. 参照

  • SQLサーバー: SQL Server データをエビデンス コンテナーに追加します。 Add Evidence from SQL Server. 参照

  • オラクル: Oracle データベースのデータをエビデンス コンテナーに追加します。 Add Evidence from Oracle. 参照

  • Documentum: 文書データをエビデンス コンテナに追加します。 Add Evidence from Documentum. 参照

  • ドロップボックス: 証拠コンテナに Dropbox データを追加します。 Add Evidence from Dropbox. 参照

  • SSH: SSH データをエビデンス コンテナーに追加します。 Add Evidence from SSH. 参照

  • 歴史的なツイッター: 過去の Twitter データをエビデンス コンテナーに追加します。 Add Evidence from Historical Twitter. 参照

設定で指定されたソースデータのタイムゾーンであり、パラメータ`{data_timezone_id}`を設定することで上書きできます。有効なタイムゾーンIDのリストについてはJoda Time Zonesを参照してください。

ソースエンコーディングとzipエンコーディングは設定で指定できます。

2.11.5. 重複削除

このオプションが選択されている場合、データは取り込み時に重複排除されます。単一のバッチでケースにデータが追加されない限り、オプション*複数のバッチロードに対する追跡と重複排除*を選択する必要があります。

取り込み時の重複排除のメカニズムは、大量のデータが読み込まれ、高レベルの重複が予想される特定のシナリオで使用するように設計されています。取り込み中にNuixワーカー間でライブ同期が必要なため、サーバー上で一度に実行できるのは重複排除を伴う1つの取り込みのみであり、リモートワーカーを追加することはできません。

重複アイテムの処理:

  • メタデータのみの処理:重複排除ステータスは、メタデータフィールド`Load originalを使用して追跡されます。最上位の元のアイテムのこのフィールドの値はtrueになり、すべての一般的なメタデータと子孫が処理されます。子孫にはこのメタデータフィールドが入力されません。最上位の重複アイテムには、このフィールドに値haveがあり、メタデータフィールドexcept以外のプロパティはありません。メタデータフィールドLoad duplicate of GUID`は、重複ドキュメントと同じ重複排除キーを持つ元のドキュメントのGUIDを示します。

重複としてフラグが付けられていないすべてのアイテムをクエリするには、クエリuseを使用します。
  • duplicateは重複として識別されたアイテムを完全にスキップし、これらのアイテムの参照はケースに存在しません。

重複削除方法:

  • トップレベルMD5:トップレベルのアイテムのMD5ハッシュを使用します。

  • メールID:最初の非空白フィールドの電子メールMessage-IDプロパティを使用します:Message-ID、Message-Id、Mapi-Smtp-Message-Id、X-Message-ID、X-Mapi-Smtp-Message-Id、Mapi -X-Message-Id、Mapi-X-Smtp-Message-Id。

  • メールMAPI検索キー:最初の非空白フィールドからの電子メールMAPI検索キープロパティを使用します:Mapi-Search-Key、X-Mapi-Search-Key。

摂取後のNuix ItemSet重複排除に類似した重複排除結果については、オプション*トップレベルMD5*のみをチェックしてください。最も包括的な重複排除の結果については、3つのオプションすべてをチェックしてください。
folderフォルダー内のメールは、メッセージIDとMAPI検索キーに基づいた重複排除の対象にはなりません。これは、このフォルダー内のデータは通常信頼できないためです。

2.11.6. 日付フィルター

other以外のすべてのモードは、データがロードされる期間を指定します。日付フィルターの範囲外のすべてのアイテムは完全にスキップされ、これらのアイテムの参照はケースに存在しません。

2.11.7. MIMEタイプのフィルター

特定のMIMEタイプのデータを特定の名前に制限するフィルターを設定できます。

たとえば、mime-type`application/vnd.ms-outlook-folder`およびアイテム名withのフィルターモード*一致する*には、次の効果があります。

  • PSTまたはEDBファイルにあるアイテムには、パスに最初のOutlookフォルダー(メールボックス-ジョンスミス)が必要です。

  • PSTまたはEDBファイルにないアイテムは影響を受けません。

Mimeタイプフィルターを使用して、Exchange Database(EDB)ファイルからロードする特定のフォルダーを選択できます。

2.11.8. エビデンスリストからエビデンスを追加

スコープ オプション 証拠リスト を選択すると、ソース パスは、次の列を含む CSV または TSV ファイルを指すことが期待されます。

  • 名前:証拠コンテナの名前

  • :ロードするファイルまたはフォルダーへのパス

  • 管理人:オプション、割り当てるカストディアン値

  • タイムゾーン:オプション、データをロードするタイムゾーンID。有効なタイムゾーンIDのリストについては、link:https://www.joda.org/joda-time/timezones.html[Joda Time Zones]を参照してください。

  • エンコーディング:オプション、データをロードするエンコード。

  • ZipEncoding:オプションで、zipファイルをロードするためのエンコーディング。

追加の列が指定されている場合、これらはカスタムエビデンスメタデータとして設定されます。

オプションの設定が提供されない場合、エビデンスの追加操作のデフォルト設定が使用されます。

オプション*証拠フォルダ名を省略します*を選択すると、リストに含まれる各エビデンスへのパスからの最後のフォルダー名は、Nuixの場合のパスに含まれません。代わりに、フォルダのすべてのアイテムが証拠コンテナのすぐ下に表示されます。

サンプル証拠リスト:

Name	Path	Custodian	Encoding	Timezone	Sample Custom Field	Another Sample Field
Evidence1	C:\Data\Folder1	Morrison, Jane	UTF-8	Europe/London	Value A	Value B
Evidence2	C:\Data\Folder2	Schmitt, Paul	Windows-1252	Europe/Berlin	Value C	Value D

2.11.9. データセットから証拠を追加する

スコープオプション*データセット*を選択する場合、*データセットID*フィールドは*構成*操作で定義されたデータセットパラメータを指している必要があります。

データセット スコープは、Automate Scheduler で送信されたジョブと、データ セットが関連付けられている案件にのみ互換性があります。

2.11.10. Google Vault エクスポートからの証拠を追加する

スコープ オプション Google Vault エクスポート を選択した場合、ソース パスは、すべての Google Vault エクスポートとドライブ リンク エクスポートを含むフォルダを指す必要があります。これは、[_ダウンロード_vault_exports] 操作からエクスポートをダウンロードするときに取得されるフォルダ構造と同じです。

ドライブリンクエクスポートを追加するには、次の 3 つの方法があります。

  • 家族用品として: ドライブ リンク エクスポートの証拠コンテナーの作成をスキップし、各ドライブ リンク ファイルをファミリー アイテムとして追加します。

    • リンクされたエクスポート ファイルをファミリ アイテムの制限として追加: ドライブリンクファイルをファミリーアイテムとして追加できる回数を制限します。制限に達した後は、 代わりにプレースホルダーが使用されます。

    • 重複するファミリ内のプレースホルダでリンクされたエクスポート ファイルを置換します: ドライブリンクファイルにプレースホルダーを使用するかどうか 重複した家族に遭遇したとき。

  • 完全なスタンドアロンアイテム + プレースホルダーファミリーアイテムとして: ドライブ リンク エクスポート用の証拠コンテナーを作成し、ドライブ リンク ファイルの代わりにプレースホルダー ファイルをファミリー アイテムとして追加します。

  • 単独アイテムとして: 親エクスポート ファイルへのリンクなしで、ドライブ リンク エクスポートの証拠コンテナーを作成します。

家族用品として オプションを使用する場合、ファミリ アイテムとして追加するドライブ リンク ファイルが多数あると、操作に長時間かかる可能性があります。別の方法を使用するか、アイテム制限を使用すると、この問題を回避できます。
プレースホルダー ファイルは、ドライブ リンク ファイルをファミリ アイテムとして追加する際の負担を軽減するために使用されます。
すべてのプレースホルダー ファイルは、プレースホルダーによって表される完全なアイテムを指す コンテンツアイテム GUID カスタム メタデータを追跡します。

すべての Google Vault エクスポートとドライブ リンク エクスポートを追加した後、オプション Google Vault メタデータを関連付ける は、エクスポート フォルダにあるメタデータ xml ファイルと csv ファイルからカスタム メタデータを解析して割り当てます。

2.11.11. MicrosoftGraphから証拠を追加する

Microsoft Graphを使用してデータを追加する場合は、*証拠を追加*操作の前に次の構成パラメーターを定義する必要があります。

  • {ms_graph_tenant_id}:AzureADのテナントID。

  • {ms_graph_client_id}:Azure ADに登録され、必要な権限を付与されたアプリのクライアント/アプリケーションID。

  • {ms_graph_client_secret_protected}:認証のために、提供されたクライアントID用に構成されたクライアントシークレット。

  • {ms_graph_certificate_store_path}:認証にクライアントシークレットの代わりに使用するPKCS#12証明書ストアへのパス。

  • {ms_graph_certificate_store_password}:PKCS#12証明書ストアのパスワード(存在する場合)。

  • {ms_graph_username}:オプションで、処理されるチームのメンバーであるユーザーのユーザー名。チームカレンダーを取り込むためにのみ必要です。

  • {ms_graph_password}:ユーザー名のパスワード(存在する場合)。

認証には、{ms_graph_client_secret_protected}`または{ms_graph_certificate_store_path}`パラメータのいずれかを設定する必要があります。
  • {ms_graph_start_datetime}:収集日の範囲の始まり。

  • {ms_graph_end_datetime}:収集日の範囲の終わり。

カレンダー(ユーザーまたはチーム)のコレクションの場合、日付範囲は5年を超えることはできません。
  • {ms_graph_retrievals}:取得するコンテンツタイプのリスト。次の値の1つ以上が含まれます:TEAMS_CHANNELSTEAMS_CALENDARSUSERS_CHATSUSERS_CONTACTSUSERS_CALENDARSUSERS_EMAILSORG_CONTACTSSHAREPOINT

  • {ms_graph_mail_folder_retrievals}: オプションで、取得するメール フォルダーのリスト。次の値の 1 つ以上が含まれます: ARCHIVECLUTTERCONVERSATION_HISTORYDELETED_ITEMSDRAFTSINBOXJUNKOUTBOXSENT_ITEMSSYNC_ISSUESOTHERRECOVERABLE_ITEMS_DELETIONSRECOVERABLE_ITEMS_PURGESRECOVERABLE_ITEMS_DISCOVERY_HOLDSRECOVERABLE_ITEMS_SUBSTRATE_HOLDSRECOVERABLE_ITEMS_OTHER

上記の取得オプションに加えて、値 ALLMAILBOX_ALL、および RECOVERABLE_ITEMS_ALL を使用して、それぞれすべての取得オプション、ユーザーのメールボックス内のすべての取得、および回復可能なアイテムのすべての取得を含めることができます。

  • {ms_graph_team_names}:オプションで、フィルタリングするチーム名のリスト。

  • {ms_graph_user_principal_names}:オプションで、フィルタリングするユーザープリンシパル名のリスト。

  • {ms_graph_version_retrieval}:オプションで、すべてのバージョンを示すブール値を取得する必要があります。デフォルトは`false`

  • {ms_graph_version_limit}:オプションで、バージョンretrievelが有効になっている場合に取得されるバージョンの数を制限する整数。デフォルトは`-1`で、使用可能なすべてのバージョンを取得します。

Microsoft Graphコレクションパラメーターのサンプル:

  • {ms_graph_tenant_id}example.com

  • {ms_graph_client_id}6161a8bb-416c-3015-6ba5-01b8ca9819f6

  • {ms_graph_client_secret_protected}AvjAvbb9akNF<pbpaFvz,mAGjgdsl>vk

  • {ms_graph_start_datetime}20180101T000000

  • {ms_graph_end_datetime}20201231T235959

  • {ms_graph_user_principal_names}john.smith@example.com, eve.rosella@example.com

  • {ms_graph_retrievals}TEAMS_CHANNELS, USERS_CHATS, USERS_EMAILS, SHAREPOINT

  • {ms_graph_mailbox_retrievals}MAILBOX, ARCHIVE, RECOVERABLE_ITEMS, ARCHIVE_RECOVERABLE_ITEMS

Microsoft Graph認証の構成方法の詳細については、Microsoft Graphコネクタに関するNuixのドキュメント(https://download.nuix.com/system/files/Nuix%20Connector%20for%20Microsoft%20Office%20365%20Guide%20v9)を参照してください。 .0.0.pdf

2.11.12. SharePointから証拠を追加する

SharePointからデータを追加する場合は、*証拠を追加*操作の前に次の構成パラメーターを定義する必要があります。

  • {sharepoint_uri}:サイトアドレスを指定するURI。

  • {sharepoint_domain}:このオプションのパラメーターは、サーバーアカウントのWindowsネットワークドメインを定義します。

  • {sharepoint_username}:アカウントにアクセスするために必要なユーザー名。

  • {sharepoint_password}:アカウントにアクセスするために必要なパスワード。

2.11.13. Exchangeからの証拠を追加する

Exchangeからデータを追加する場合は、*証拠を追加*操作の前に次の構成パラメーターを定義する必要があります。

  • {exchange_uri}: Exchange Web サービスへのパス (例: https://ex2010/ews/exchange.asmx)。

  • {exchange_domain}:このオプションのパラメーターは、サーバーアカウントのWindowsネットワークドメインを定義します。

  • {exchange_username}:アカウントにアクセスするために必要なユーザー名。

  • {exchange_password}:アカウントにアクセスするために必要なパスワード。

  • {exchange_mailbox}:ユーザー名と異なる場合に取り込むメールボックス。

  • {exchange_impersonating}:ブール値。デフォルトは`false`です。このオプション設定は、メールボックスとユーザー名が異なる場合に委任するのではなく、メールボックスユーザーになりすますようにExchangeに指示します。

  • {exchange_mailbox_retrieval}:次の値の1つ以上を含むリスト:mailboxarchivepurgesdeletionsrecoverable_itemsarchive_purgesarchive_deletionsarchive_recoverable_itemspublic_folders

  • {exchange_from_datetime}:このオプションのパラメーターは、証拠を指定された日付/時刻から始まる日付範囲に制限します。 `{exchange_to_datetime}`パラメータを伴う必要があります。

  • {exchange_to_datetime}:このオプションのパラメーターは、指定された日時で終了する日付範囲に証拠を制限します。 `{exchange_from_datetime}`パラメータを伴う必要があります。

2.11.14. EnterpriseVaultから証拠を追加する

Enterprise Vaultからデータを追加する場合は、*証拠を追加*操作の前に次の構成パラメーターを定義する必要があります。

  • {ev_computer}:EnterpriseVaultのホスト名またはIPアドレス。

  • {ev_vault}:ボールトストアID。このオプションのパラメーターは、証拠を指定されたEnterpriseVaultボールトに制限します。

  • {ev_archive}:アーカイブID。このオプションのパラメーターは、証拠を指定されたEnterpriseVaultアーカイブに制限します。

  • {ev_custodian}:名前。このオプションのパラメーターは、証拠を指定されたカストディアンまたは作成者に制限します。

  • {ev_from_datetime}:このオプションのパラメーターは、証拠を指定された日付/時刻から始まる日付範囲に制限します。 `{ev_to_datetime}`パラメータを伴う必要があります。

  • {ev_to_datetime}:このオプションのパラメーターは、指定された日時で終了する日付範囲に証拠を制限します。 `{ev_from_datetime}`パラメータを伴う必要があります。

  • {ev_keywords}:このオプションのパラメーターは、この文字列内の単語を使用してEnterpriseVaultのクエリに一致する結果に証拠を制限します。件名とメッセージ/ドキュメントのコンテンツはEnterpriseVaultによって検索され、`{ev_flag}`パラメータで特に指定されていない限り、文字列内の任意の単語と一致します。

  • {ev_flag}: anyallallnearphrasebeginsbeginanyexactexactanyends、`endsany`の任意の値。

{ev_flag}`パラメータは、キーワードベースのクエリでキーワードを組み合わせて処理する方法を指定します。 `{ev_keywords}`パラメータを付ける必要がありますが、省略した場合はデフォルトでany`になります。

2.11.15. S3から証拠を追加する

S3からデータを追加する場合は、*証拠を追加*操作の前に次の構成パラメーターを定義する必要があります。

  • {s3_access}:このパラメーターは、Amazon WebServiceアカウントのアクセスキーIDを指定します。

  • {s3_secret_protected}:このパラメーターは、Amazon WebServiceアカウントのシークレットアクセスキーを指定します。

  • {s3_credential_discovery_boolean}:このオプションのパラメーターは、アクセスとシークレットが指定されていない場合にのみ有効です。 `true`値を使用すると、システムプロパティによる資格情報の検出が可能になります。 `false`または省略された値は、指定されたバケットへの匿名アクセスを試みます。

  • {s3_bucket}:このオプションのパラメーターは、バケットを指定し、オプションで、取り込む証拠を含むバケット内のフォルダーへのパスを指定します。たとえば、mybucketname/top folder/sub folder。このパラメーターを省略すると、すべてのバケットが証拠に追加されます。

  • {s3_endpoint}:このオプションのパラメーターは、特定のアマゾンウェブサービスサーバーエンドポイントを指定します。これは、特定の地域サーバーに接続するために使用できます。 https://s3.amazonaws.com

2.11.16. Documentumから証拠を追加する

Documentumからデータを追加する場合は、*証拠を追加*操作の前に次の構成パラメーターを定義する必要があります。

  • {documentum_domain}:このオプションのパラメーターは、サーバーアカウントのWindowsネットワークドメインを定義します。

  • {documentum_username}:アカウントにアクセスするために必要なユーザー名。

  • {documentum_password}:アカウントにアクセスするために必要なパスワード。

  • {documentum_port_number}:接続するポート番号。

  • {documentum_query}:DQLクエリ。このオプションのパラメーターは、コンテンツのフィルター処理に使用されるクエリを指定します。

  • {documentum_server}:このパラメーターは、Documentumサーバーのアドレスを指定します。

  • {documentum_doc_base}:このパラメーターは、Documentumdocbaseリポジトリーを指定します。

  • {documentum_property_file}:このオプションのパラメーターは、Documentumプロパティファイルを指定します。

2.11.17. SQLServerから証拠を追加する

SQL Serverからデータを追加する場合は、*証拠を追加*操作の前に次の構成パラメーターを定義する必要があります。

  • {sql_server_domain}:このオプションのパラメーターは、サーバーアカウントのWindowsネットワークドメインを定義します。

  • {sql_server_username}:アカウントにアクセスするために必要なユーザー名。

  • {sql_server_password}:アカウントにアクセスするために必要なパスワード。

  • {sql_server_computer}:SQLServerのホスト名またはIPアドレス。

  • {sql_server_max_rows_per_table_number}:各テーブルまたはクエリから返される最大行数。このパラメーターはオプションです。非常に多くの行を含むテーブルまたはクエリ結果を処理するときに時間を節約できます。返される行の選択は任意であると見なす必要があります。

  • {sql_server_instance}:SQLServerインスタンス名。

  • {sql_server_query}:SQLクエリ。このオプションのパラメーターは、コンテンツのフィルター処理に使用されるクエリを指定します。

2.11.18. Oracleからの証拠を追加する

Oracleからデータを追加する場合は、*証拠を追加*操作の前に次の構成パラメータを定義する必要があります。

  • {oracle_username}:アカウントにアクセスするために必要なユーザー名。

  • {oracle_password}:アカウントにアクセスするために必要なパスワード。

  • {oracle_max_rows_per_table}:各テーブルまたはクエリから返される最大行数。このパラメーターはオプションです。非常に多くの行を含むテーブルまたはクエリ結果を処理するときに時間を節約できます。返される行の選択は任意であると見なす必要があります。

  • {oracle_driver_type}:接続に使用されるドライバーの種類。 thinoci、または`kprb`にすることができます。

  • {oracle_database}:接続パラメータの文字列表現。可能な形式は、https://www.oracle.com/database/technologies/faq-jdbc.html#05_04に記載されています。

  • {oracle_role}SYSDBA`やSYSOPER`など、ログインする役割。通常のログインの場合、これは空白にする必要があります。

  • {oracle_query}:SQLクエリ。このパラメーターは、コンテンツのフィルター処理に使用されるクエリを指定します。

2.11.19. Dropboxから証拠を追加する

Dropboxからデータを追加する場合、*証拠を追加*操作の前に次の構成パラメーターを定義する必要があります。

  • {dropbox_auth_code_protected}:アカウントへのアクセスを可能にするDropboxのウェブページを介して取得された文字列。

  • {dropbox_team_boolean}:Dropboxチームがエビデンスに追加されることを示すブール値。 このオプションのパラメーターは、Dropboxチームをエビデンスに追加するときに存在し、すべての呼び出しで`true`に設定する必要があります。個別のDropboxアカウントを追加する場合は省略できます。

  • {dropbox_access_token_protected}:アカウントへのアクセスを可能にするauthCodeを使用して取得された文字列。アカウントへのアクセストークンがすでにわかっている場合は、`{dropbox_auth_code_protected}`の代わりにこのパラメーターを使用して直接提供してください。アカウントの所有者がアクセスを取り消さない限り、このコードは期限切れになりません。

2.11.20. Slack から証拠を追加する

Slack からデータを追加する場合、証拠を追加 操作の前に次の構成パラメータを定義する必要があります。

  • {slack_auth_code_protected}:仮の認証コードです。 Nuix Workstation を通じて手動収集を開始して、このコードを取得します。

  • {slack_user_ids}: オプションで、コレクションを制限するユーザーの内部 Slack ID。

  • {slack_start_datetime}: オプションで、収集日範囲の開始日。

  • {slack_end_datetime}: オプションで、収集日範囲の終了日。

2.11.21. SSHからの証拠を追加する

SSHからデータを追加する場合は、*証拠を追加*操作の前に次の設定パラメータを定義する必要があります。

  • {ssh_username}:アカウントにアクセスするために必要なユーザー名。

  • {ssh_password}:アカウントにアクセスするために必要なパスワード。

  • {ssh_sudo_password}:SSHキーベースの認証を使用するときに保護されたファイルにアクセスするために必要なパスワード。

  • {ssh_key_folder}:SSH認証キーのペアを保持するローカルシステム上のフォルダーを指します。

  • {ssh_computer}:EnterpriseVaultのホスト名またはIPアドレス。

  • {ssh_port_number}:接続するポート番号。

  • {ssh_host_fingerprint}:接続されているホストの予想されるホストフィンガープリント。この値が設定されていない場合、ホストフィンガーピントが許可され、中間者が接続を攻撃する可能性が残ります。

  • {ssh_remote_folder}:トラバースを開始するSSHホスト上のフォルダー。このオプションのパラメーターは、証拠をこの開始フォルダーの下の項目に制限します。

  • {ssh_accessing_remote_disks_boolean}:ブール値。 true`に設定すると、リモートディスク(例:/dev/sda1`はリモートシステムのファイルシステム構造ではなく証拠として公開されます)。

2.11.22. 歴史的なTwitterからの証拠を追加する

Twitterからデータを追加する場合は、*証拠を追加*操作の前に以下の設定パラメータを定義する必要があります。

  • {twitter_access_token}:アカウントへのアクセスを可能にするauthCodeを使用して取得された文字列。このトークンを生成するために、https://apps.twitter.comで新しいアプリを作成できます。

  • {twitter_consumer_key}:Twitterアプリのコンシューマーキー(APIキー)。

  • {twitter_consumer_secret_protected}:Twitterアプリのコンシューマーシークレット(APIシークレット)。

  • {twitter_access_token_secret_protected}:Twitterアプリのアクセストークンシークレット。

2.11.23. エビデンスリポジトリを追加

この操作により、ケースに証拠リポジトリが追加されます。典型的なNuixオプションを使用して、証拠リポジトリ設定をカスタマイズできます。

この操作は、データをケースにロードしません。データを追加するには、*エビデンスリポジトリ再スキャン*操作を使用する必要があります。

2.11.24. エビデンスリポジトリ再スキャン

この操作により、すべてのエビデンスリポジトリが再スキャンされ、新しいデータがケースに追加されます。

オプションTheを使用して、警告を表示したり、エラーをトリガーしたり、新しい証拠が発見されなかった場合にワークフローの実行を終了したりできます。

2.11.25. カストディアンの検出と割り当て

この操作は、次のオプションのいずれかを使用してカストディアン名を検出します。

  • カストディアンを、指定されたパスの深さのフォルダーと同じ名前に設定します。

  • folderフォルダー名からカストディアン名を抽出しようとします。フォルダー名には、指定された最大パス深度まで、人気のあるファーストネームが含まれます。

  • 送信済みフォルダ内のメールの送信者の名前からカストディアン名を抽出しようとします。

  • データセットメタデータからカストディアンを設定する*は、データセットメタデータの`*Custodian`フィールドで定義されたカストディアン名を設定します。

フォルダー名からカストディアンを設定する オプションを使用する場合は、Nuix ケースのルートから定義されたフォルダーの深さまでのすべてのフォルダーがスコープ クエリに含まれていることを確認してください。たとえば、クエリ path-guid:{evidence_guid} は、証拠コンテナの下の項目のみが含まれ、証拠コンテナ自体は含まれないため、無効です。一方、クエリ batch-load-guid:{last_batch_load_guid} は、証拠コンテナーとカストディアン値が割り当てられるすべてのフォルダーを含む、その特定のバッチでロードされたすべてのアイテムが含まれるため、有効です。

この操作の設定は、次のパラメーターを使用して制御することもできます。

  • {set_custodian_from_folder_name}-*フォルダー名からカストディアンを設定する*オプションを有効または無効にします。

  • {custodian_folder_level}-*フォルダー名からカストディアンを設定する*オプションに対応するフォルダーの深さ。

  • {set_custodian_from_typical_folder_name}-*典型的なカストディアン名を持つフォルダー名からカストディアンを設定する*オプションを有効または無効にします。

  • {max_custodian_typical_folder_level}-*典型的なカストディアン名を持つフォルダー名からカストディアンを設定する*オプションに対応する最大フォルダー深度。

  • {set_custodian_from_pst}-*メールの送信者名を送信したPSTファイルからカストディアンを設定する*オプションを有効または無効にします。

オプションを有効または無効にするためのパラメータは、オプションを有効にするために`trueyes`、またはtoに設定でき、オプションを無効にするために他のものに設定できます。

2.11.26. アイテムの除外

この操作では、特定の検索条件に一致するアイテムをケースから除外します。

エントリは、+ および - ボタンを使用して除外リストに追加するか、CSV または TSV ファイルから除外リストからロードできます。

除外は、workflowオプションを使用して、ワークフローの実行中にファイルからロードすることもできます。

beパスでパラメーターを使用して、ワークフローの要件に基づいて動的に除外ファイルを選択できます。

2.11.27. アイテムを含める

この操作には、以前に除外されたアイテムが含まれます。

スコープクエリの範囲外にある除外されたアイテムは含まれません。

すべての除外カテゴリに属するアイテムを含めることができます。または、+ ボタンと*-*ボタンを使用して除外名を指定するか、テキスト ファイルから読み込むこともできます。

2.11.28. アイテムセットに追加

この操作は、既存のアイテムセットにアイテムを追加するか、指定した名前のアイテムセットが存在しない場合は新しいアイテムセットを作成します。

アイテムセットに追加するアイテムのリストが空の場合、最初のルートアイテムが一時的にフィラーアイテムとして追加され、アイテムセットバッチの作成に役立ちます。

標準の Nuix 重複排除オプションに加えて、Automate Workflow ではさらに 2 つの重複排除方法を提供します。

  • メッセージID: 最初の空白でないフィールドの電子メール メッセージ ID プロパティを使用します: Message-ID、Message-Id、Mapi-Smtp-Message-Id、X-Message-ID、X-Mapi-Smtp-Message-Id、Mapi-X-Message-Id、Mapi-X-Smtp-Message-Id、PR_インターネット_MESSAGE_ID。

  • メッセージID / MD5: 電子メールの Message-ID プロパティが利用可能な場合はそれを使用し、MD5 を使用する場合はそれを使用します。

  • Mapi検索キー:最初の非空白フィールドからの電子メールMAPI検索キープロパティを使用します:Mapi-Search-Key、X-Mapi-Search-Key。

メッセージIDまたはMAPI検索キーに基づいてファミリごとに重複排除を実行すると、2つのバッチが作成されます。1つはトップレベルアイテム用(サフィックスTL)、もう1つは非トップレベルアイテム用(サフィックスNonTL)です。これらのバッチの両方で元のアイテムを照会するには、構文を使用します:+item-set-batch:("{last_item_set_originals_batch} TL" OR "{last_item_set_originals_batch} NonTL")

2.11.29. アイテムセットから削除

この操作は、指定されたアイテムセットからアイテムを削除します(存在する場合)。

2.11.30. アイテムセットを削除

この操作は、指定されたアイテムセットを削除します。

2.11.31. ダイジェストリストにアイテムを追加する

この操作は、ダイジェストリストが存在しない場合に作成するオプションを使用して、ダイジェストリストにアイテムを追加します。

ダイジェストリストは、3つのダイジェストリストの場所のいずれかに作成できます。

  • ケース:ケースの場所、ケースフォルダーの次のサブフォルダーに相当`Stores\User Data\Digest Lists`

  • ユーザ:ユーザープロファイルの場所、%appdata%\Nuix\Digest Lists と同等

  • ローカルコンピューター:コンピュータープロファイルの場所、%programdata%\Nuix\Digest Lists と同等

2.11.32. ダイジェストリストからアイテムを削除する

この操作は、指定されたダイジェストリストからアイテムを削除します(存在する場合)。

2.11.33. ダイジェストリストを管理する

この操作は、指定された2つのダイジェストリストで操作を実行し、結果のダイジェストリストを指定されたダイジェストリストの場所に保存します。

操作のリスト:

  • 追加:ダイジェストリストAまたはダイジェストリストBのいずれかに存在するハッシュを生成します;

  • 引く:ダイジェストリストAには存在するが、ダイジェストリストBには存在しないハッシュを生成します;

  • 交差:ダイジェストリストAとダイジェストリストBの両方に存在するハッシュを生成します。

2.11.34. ダイジェストリストを削除

この操作は、指定されたダイジェストリストの場所から、指定されたダイジェストリストを削除します(存在する場合)。

2.11.35. ダイジェストリストのインポート

この操作は、テキストまたはNuixハッシュファイルを指定されたダイジェストリストの場所にインポートします。

使用可能なファイル形式:

  • テキストファイル(.txt, .csv, .tsv)。ファイルに単一の列が含まれる場合、ハッシュは1行に1つずつ提供されると予想されます。ファイルに複数の列が含まれている場合、ヘッダー名が`MD5`の列が必要です

  • Nuixハッシュ`(.hash)`ファイル

2.11.36. ダイジェストリストのエクスポート

この操作は、Nuixダイジェストリストをテキストファイルとして指定された場所にエクスポートします。結果のテキストファイルには、ヘッダーのない1つの列と1行に1つのハッシュが含まれます。

2.11.37. 検索およびタグ

この操作は、特定の検索条件に一致するケースのアイテムにタグを付けます。

オプション:

  • 家族を特定する: 選択すると、キーワードごとにヒットしたアイテムのファミリーアイテムと最上位アイテムを検索します

  • 子孫を特定する 選択すると、キーワードごとにヒットしたアイテムの子孫を検索します

  • 排他的ヒット("ユニーク"ヒット)を識別する o選択すると、排他的ヒット (1 つのキーワードのみにヒットするアイテム)、排他的ファミリー アイテム (家族全員が 1 つのキーワードのみにヒットするアイテム )、排他的最上位アイテム (および、家族みんなでひとつのキーワードでヒット

  • 計算サイズ 選択すると、操作はヒットとファミリー項目の監査済みサイズを計算します

  • 合計を計算する 選択すると、すべてのキーワードの合計数とサイズが計算されます

  • カストディアン別内訳 選択すると、カストディアンが割り当てられていないアイテムだけでなく、カストディアンごとに検索とレポートが実行されます

  • ログ結果 選択すると実行ログに検索回数が出力されます

2.11.38. タグ

*タグを割り当てる*オプションが選択されている場合、アイテムは次のタグ構造でタグ付けされます。

  • Tag prefix

    • ヒット数

      • Keyword tag:検索クエリに一致したアイテム。

    • 家族

      • Keyword tag:検索クエリに一致したアイテムのファミリー。

    • トップレベル

      • Keyword tag:検索クエリに一致したアイテムの最上位アイテム。

    • 派生

      • Keyword tag:検索クエリに一致したアイテムの子孫。

    • ExclusiveHits

      • Keyword tag:キーワードのみでヒットしたアイテム。

    • ExclusiveFamilies

      • Keyword tag:キーワードのみでヒットした家族。

    • ExclusiveTopLevel

      • Keyword tag:キーワードのみでヒットしたファミリーの最上位アイテム。

*このプレフィックスを持つ以前のタグを削除します*オプションが選択されている場合、searchによると、検索範囲に関係なく、*タグのプレフィックス*で始まる以前のタグはすべて削除されます。

この操作は、この操作または別の方法で以前に適用された削除タグを削除するために、空のキーワードリストと*このプレフィックスを持つ以前のタグを削除します*を有効にして使用できます。

このプレフィックスを持つ以前のタグを削除します*メソッドは、renameの名前を`*Automate|SearchAndTagOld|Tag prefix_{datetime}`に変更します。この方法は高速ですが、検索およびタグ操作を複数回実行した後、Nuix Workbenchでの手動アクティビティが遅くなる可能性のある多数のタグを作成できます。

2.11.39. 報告

このオプションは、テンプレートファイルに基づいて、Excel形式で検索レポートを生成します。

カスタムテンプレートの使用については、Processing Reportを参照してください。

2.11.40. キーワード

キーワードは、ワークフロー エディター インターフェイスで手動で指定するか、ファイルから読み込むことができます。

次のファイル形式がサポートされています。

  • .csv: カンマ区切りファイル。最初の列にはキーワード名またはタグが含まれ、2 番目の列にはキーワード クエリが含まれます。最初の行が正確な値 tagquery を持つヘッダーである場合、その行はヘッダーとして読み取られます。それ以外の場合は、キーワードとタグ名を含む通常の行として読み取られます。

  • .tsv, .txt : タブ区切りのファイルで、最初の列にはキーワード名またはタグが含まれ、2 番目の列にはキーワード クエリが含まれます。

  • .json: JSON ファイル。Nuix Search and Tag ウィンドウからエクスポートされるか、検索のリストが含まれ、各検索にはタグとクエリが含まれます。

サンプルの JSON ファイル:

{
  "searches": [
    {
      "tag": "KW 01",
      "query": "Plan*"
    },
    {
      "tag": "KW 02",
      "query": "\"Confidential Data\" OR Privilege"
    }
  ]
}

または、キーワードファイルへのパスを指定して、ワークフローの実行時にロードすることもできます。

2.11.41. カストディアンの検索と割り当て

この操作は、特定の検索条件に一致するケースのアイテムにカストディアンを割り当てます。

エントリは、+ および - ボタンを使用してカストディアン/クエリ リストに追加するか、CSV または TSV ファイルからロードできます。

2.11.42. タグアイテム

この操作は、スコープクエリでアイテムを検索します。

次に、スコープ内のアイテムとして、またはスコープ内のアイテムの複製として、個人または家族ごとに処理するアイテムを照合します。

タグ名は、一致したアイテム(一致する)、そのファミリー(すべての家族)、その子孫(すべての子孫)、一致したアイテムとその子孫(一致と子孫)、またはそのファミリーの最上位アイテム(トップレベル)のいずれかに適用されます。

2.11.43. アイテムのタグ解除

この操作は、スコープクエリのアイテムのタグを削除します。

必要に応じて、スコープ内のアイテムのタグが解除された後にタグが空の場合、removeメソッドを設定してタグを削除できます。

プレフィックスで始まるタグを削除するオプションを指定すると、プレフィックスの名前とそのサブタグを持つタグが削除されます。たとえば、プレフィックスが`Reportに設定されている場合、タグReportおよびReport|DataAは削除されますが、Reports`は削除されません。

2.11.44. マッチアイテム

この操作は、指定されたテキストファイルから`MD5および/またはGUID値のリストを読み取ります。スコープ内のアイテムのmatchingおよび/またはGUID`値が一致するスコープ内のアイテムは、areフィールドで指定された値でタグ付けされます。

2.11.45. 日付範囲フィルター

この操作は、アイテムの日付、最上位のアイテムの日付、または日付プロパティのリストのいずれかを使用して、スコープクエリ内のアイテムを指定された日付範囲内のアイテムにフィルターします。

次に、tagに類似したタグまたは除外を適用します。

すべての日付プロパティを指定するには、Useを日付プロパティとして使用します。
この範囲の日付は、パラメーター`{filter_before_date}および{filter_after_date}`を使用して指定できます。

2.11.46. 言葉でアイテムを探す

この操作は、スコープ内のアイテムのテキストを分析し、単語数が最小および最大カウント基準を満たしている場合にアイテムが応答するかどうかを判断します。

単語は、提供された正規表現を使用して各アイテムのテキストを分割することにより抽出されます。

文字と数字のみを含む単語を抽出するサンプル正規表現:

[^a-zA-Z0-9]+

文字のみを含む単語を抽出する正規表現の例:

[^a-zA-Z]+

空白文字(スペース、タブ、改行、フォームフィードなど)で区切られた任意の文字を含む単語を抽出する正規表現のサンプル

\s+

2.11.47. メールをフィルタリングする

この操作は、受信者名、電子メールアドレス、およびドメイン名に基づいて、電子メールの高度な検索を実行します。

*ウィザード*機能は、次のシナリオのいずれかに基づいてフィルタリングロジックを事前に設定します。

  • 内部専用メールにタグを付ける

  • 2人の個人間の通信のみにタグを付ける

  • グループ内のコミュニケーションにタグを付ける

2.11.48. クラスター実行へのアイテムの追加

この操作は、既存のクラスター実行に項目を追加するか、指定された名前のクラスター実行が存在しない場合は新しいクラスター実行を作成します。

この操作を実行すると、進行状況はonlyのみを表示し、操作が完了すると更新されます。

2.11.49. 添付ファイルを含むメールの検出

この操作は、Nuix の Cluster Run 操作と組み合わせて使用する必要があります。まず、Nuix Workstation を使用して Cluster Run を生成し、次に Detect Attachment-Implied Emails 操作を実行して、包括的および非包括的電子メールの識別を補完します。

クラスター実行名が指定されていない場合、操作は既存のすべてのクラスター実行を処理します。

アイテムは、次のタグ構造に従ってタグ付けされます。

  • スレッディング

    • クラスター実行名

      • アイテム

        • 包括的

          • 添付ファイル推測

          • 特異な

          • 無視された

          • 終点

        • 非包括的

      • すべての家族

        • 包括的

          • 添付ファイル推測

          • 特異な

          • 無視された

          • 終点

        • 非包括的

非包括的メールを除くすべてのデータを選択するには、クエリ+ useを使用します
この操作は、電子メールスレッドを使用してクラスター化された、最上位の電子メールのみを含むクラスター実行で使用する必要があります。そうしないと、操作の結果に一貫性がなくなります。

2.11.50. アイテムの再読込み

この操作は、スコープクエリに一致するアイテムをソースから再読み込みします。

この操作は、パスワードを定義する構成操作が先行し、*暗号化されたアクセス不能を削除*オプションが使用されている場合に、パスワードで保護されたファイルを復号化するために使用できます。
スコープクエリの結果が0アイテムの場合、Nuixケースデータベースは閉じられないため、将来データを追加しようとしたときに問題が発生します。回避策として、スコープクエリの結果が0アイテムの場合は、先行するgetOを使用してアイテムの再読み込み操作をスキップします。以下のPythonスクリプトの例を参照してください。
# Set scope_query to the scope query of the Reload Items operation
items_count = current_case.count(scope_query);
print("Reload Items operation scope count: %s" %items_count)

if items_count == 0:
    # Skip next operation
    current_operation_id = workflow_execution.getCurrentOperationId()
    workflow_execution.goToOperation(current_operation_id + 2)
ドキュメントを復号化するとき、Nuix Engineは元々暗号化されたアイテムを所定の位置に維持し、復号化されたコンテンツで子孫を作成します。この状況で、*正常に復号化された暗号化ドキュメントを除外する*オプションを使用すると、最初に暗号化されたアイテムが除外され、復号化されたバージョンのみが残ります。これは暗号化されたドキュメント(WordやPDFなど)にのみ影響し、暗号化されたzipアーカイブには影響しないことに注意してください。

2.11.51. アイテムを交換

この操作は、ケースアイテムを、ソースアイテムのMD5またはGUID値で名前が付けられたファイルに置き換えます。

2.11.52. アイテム削除

この操作により、スコープクエリ内のアイテムとその子孫が削除されます。

これは不可逆的です。削除されたアイテムはケースから削除され、検索に表示されなくなります。関連するすべての注釈も削除されます。

2.11.53. テキストを置換

アイテムのMD5またはGUID値に基づいて名前が付けられたファイルに代替テキストが提供されている場合、この操作は、スコープクエリに一致するアイテムに保存されているテキストを置き換えます。

この操作は、中断されたNuix OCR操作の後に使用できます。OCR操作の部分的な結果を適用するには、OCRキャッシュから特定のフォルダーにすべてのテキストファイルをコピーし、そのフォルダーでテキスト置換操作を指定します。
この操作は、指定されたフォルダーのルートでのみファイルを検索し、サブフォルダーのファイルを無視します。

2.11.54. テキストを削除

この操作により、スコープクエリに一致するアイテムに保存されているテキストが削除されます。

この操作を使用すると、ロード中にNuixがテキストを削除したが、意味のあるテキストが抽出されなかったアイテムからテキストを削除できます。

2.11.55. テキストを編集

この操作は、スコープ内のアイテムのテキストに対して正規表現検索を実行し、すべての一致を編集します。

*リダクション定義ファイル*は、正規表現のリストを含むテキストファイル、またはタブで区切られたファイル列の名前と正規表現です。

2.11.56. OCRアイテム

この操作は、標準のNuixオプションを使用して、スコープクエリによって識別されたアイテムに対してNuixOCRを使用してOCRを実行します

Nuixバージョン8以降、OCR設定を手動で指定することはできず、代わりにOCRプロファイルを使用する必要があります。

オプション*プロファイルを区別する*は、カスタムキャッシュディレクトリでOCRプロファイルを使用する場合に適用されます。この場合、複数のジョブを同時に実行するときの競合を回避するために、短いジョブIDがサブディレクトリとしてカスタムキャッシュディレクトリに追加されます。

2.11.57. 重複カストディアンフィールドの生成

この操作により、ケース内の重複するカストディアンのリストを含むCSVファイルが生成されます。利用可能なオプションの説明については、Generate Duplicate Fieldsを参照してください。

*元のフィールド*で*DocID*を選択せずに実行すると、実行時間が大幅に改善されます。
この操作は、*重複フィールドを生成*操作よりもメモリを消費しません。

2.11.58. ドメインフィールドを生成する

この操作は、*範囲*のアイテムから電子メールドメインを抽出します。

抽出されたドメインフィールドは、CSVファイルに保存したり、customのアイテムにカスタムメタデータとして割り当てることができます。

2.11.59. 重複フィールドを生成

この操作により、*アイテムスコープの更新*クエリに一致し、より大きな*検索範囲*クエリに重複するすべてのアイテムが識別されます。

この操作は、次の2つの評価方法をサポートしています。

  • メモリを大量に消費する:この方法は、大規模なケースで大量のメモリを使用しますが、計算量が少なくて済みます。

  • 計算集約型: この操作は、大規模なケースで多数の計算を実行しますが、必要なメモリ量が少なくて済みます

重複するアイテムは、次のレベルの重複に基づいて識別されます。

  • アイテムごと:アイテムレベルで重複しているアイテム。

  • ファミリーごと:家族レベルで重複しているアイテム

  • 最上位アイテム別:重複しているスコープ内のアイテムの最上位アイテムのみが識別されます。

重複排除オプション*最上位アイテム別*を使用する場合は、提供されたファミリが検索および更新スコープで完全であることを確認してください。

重複するアイテムの更新スコープ内のアイテムが識別されると、この操作は生成され、重複するアイテムのプロパティをキャプチャします。次の_重複フィールド_がサポートされています。

  • カストディアン

  • アイテム名

  • アイテムの日付

  • パス

  • タグ

  • サブタグ

  • GUID

  • 親GUID

  • 最上位の親GUID

  • DocID

  • 最も低いファミリDocID

  • メタデータプロファイル

*メタデータプロファイル*オプションを選択すると、指定したメタデータプロファイルで見つかったすべてのフィールドが計算されます。

結果の包括性*オプションは、現在の元のアイテムの値を_重複フィールド_に追加するかどうかを決定します。たとえば、元のドキュメントにカストディアンhasがあり、カストディアン`*Jonesとwithの2つの重複するアイテムがある場合、代替カストディアン*フィールドには値*Jones; Taylor`が含まれますが、*全てのカストディアン*フィールドには値containが含まれます。

作成された_重複フィールド_は、`CSV`ファイルに保存したり、カスタムメタデータとしてassignedのアイテムに割り当てたりできます。

日付形式のヘルプについては、パターンベースの日付形式のガイドを参照してください。

2.11.60. 印刷画像を生成する

この操作は、指定されたイメージングプロファイルを使用して、スコープ内のアイテムの画像を生成します。

*失敗したアイテムにタグを付ける*オプションの動作は、リーガルエクスポート操作の場合と同じです。

2.11.61. バイナリストアに入力する

この操作により、スコープ内のアイテムのバイナリがバイナリストアに入力されます。

2.11.62. カスタムメタデータを割り当てる

この操作により、スコープ内のアイテムにカスタム メタデータが追加されます。 CSV または TSV ファイルが必要です。

ファイル ヘッダーは、GUIDItemNameDocID、または Key のいずれかで始まり、その後に割り当てられるメタデータ フィールドの名前が続く必要があります。

ItemName を使用すると、そのアイテム名を持つ Nuix ケース内のすべてのアイテムにメタデータが割り当てられます。これには、複数のアイテムが同じ名前を持つ場合、同じメタデータ情報を複数のアイテムに割り当てることが含まれる場合があります。
Key`を使用した場合、アイテムのマッチングはGUIDItemNameDocID`の順に試行されます。

後続の各行は、更新が必要なアイテムに対応し、最初の列にはアイテムの GUIDItemName、または DocID が含まれ、残りの列にはカスタム メタデータが含まれます。

シンプルな CSV メタデータ ファイルの例:

DocID,HasSpecialTerms,NumberOfSpecialTerms
DOC00001,Yes,5
DOC00002,Yes,1
DOC00003,No,0
DOC00004,Yes,7

特定のタイプのカスタム メタデータを割り当てるには、次の形式で 2 番目のヘッダー行を追加します。

  • 最初の列: Type、この行がフィールド タイプを指定するヘッダーであることを示します

  • 後続の列ごとに、次のオプションからのデータのタイプ:

    • テキスト

    • 日付

    • ブール値

    • 整数

    • 浮く

タイプの CSV メタデータ ファイルの例:

ItemName,DateRecorded,SampleThreshold
Type,Date,Float
file1.txt,2020-01-01,0.5
file2.txt,2021-01-01,1.5
Email.eml,2022-01-01,-7

2.11.63. データセットメタデータの割り当て

この操作は、データセットで定義されたフィールドをカスタムメタデータまたはタグとして割り当てます。

2.11.64. Google Vaultメタデータを関連付ける

この操作は、Google Vault からエクスポートされた XML ファイルと CSV ファイルを解析し、利用可能なメタデータ レコードを抽出し (https://support.google.com/vault/answer/6099459?hl=en#mailxml を参照)、これらをカスタム メタデータとしてNuixケースの一致するアイテム。

Google Vault メタデータ レコードと Nuix ケースのアイテムとの照合は、次の方法で実行されます。

  • Googleのメール

    • XML メタデータ ファイルを解析する場合、メタデータ フィールドを使用してマッチングが行われます MBOX From Line

    • CSV メタデータ ファイルを解析する場合、メタデータ フィールド Mapi-Smtp-Message-IdMessage-ID を使用して照合が実行されます。

  • Googleドキュメント

    • XML メタデータ ファイルを解析する場合、ファイル名 を使用してマッチングが実行されます。

2.11.65. カスタムメタデータの削除

この操作は、スコープ内のアイテムから指定されたカスタムメタデータを削除します。

2.11.66. プロダクションセットにアイテムを追加する

この操作は、スコープクエリに一致するアイテムをプロダクションセットに追加します。

生産セットにアイテムを追加する場合、次のソート順を適用できます。

  • ソートなし:アイテムはソートされません。

  • トップレベルアイテム日付(昇順):アイテムは、各ファミリーの最上位アイテムの日付に従って昇順でソートされます。

  • トップレベルアイテムの日付 (降順):アイテムは、各ファミリーの最上位アイテムの日付に従って降順でソートされます。

  • 証拠の順序(昇順):アイテムは有効なパス名(Windowsエクスプローラーのソートと同様)で昇順にソートされます。

  • キーワードフィールド:項目はフィールドの組み合わせで昇順または降順に並べ替えられます。

  • メタデータプロファイル: アイテムはメタデータ プロファイル内のフィールドによって昇順に並べ替えられます。

Nuix Engine デフォルトのソート順 と同等の並べ替え順序を実現するには、フィールド 位置上昇 順にして、自動化 カスタム 並べ替え方法を選択します。

アイテムの番号付けは、*Document ID*レベルまたは*ファミリードキュメントID*レベルで実行できます。後者の場合、各ファミリの最上位のアイテムには、定義されたプレフィックスと番号の数字に従ってドキュメントIDが割り当てられます。ファミリのすべての子孫には、最上位アイテムの1つと同じドキュメントIDと、ファミリ内の子孫の位置を示す接尾辞が割り当てられます。

ドキュメントIDの開始番号、桁数、およびファミリーの桁数は、カスタムパラメータを使用して指定できます。

  • {docid_start_numbering_at}-このパラメーターを有効にするには、[プロダクションセットにアイテムを追加]操作の構成でオプション*で番号付けを開始*を選択します。

  • {docid_digits}

  • {docid_family_digits}-このパラメーターを有効にするには、[プロダクションセットにアイテムを追加]操作の構成で番号付けスキーム*ファミリードキュメントID*を選択します。

ページレベルの番号付けスキームを使用する場合、パラメータ`{group_family_items}を使用して同じファミリのドキュメントのグループ化を制御でき、パラメータ{group_document_pages}を使用して同じドキュメントのページのグループ化を制御できます。これらのパラメータはtrueまたはfalse`に設定できます。

2.11.67. 生産セットの削除

この操作により、*全て*または*明確な*プロダクションセットが削除されます。

この操作は、標準のNuixオプションを使用して、正当なエクスポートを実行します。

legalおよび*プロダクションプロファイル*オプションを使用して、法的エクスポート中にエクスポートされるイメージのパラメーターを制御します。

*分割エクスポート*オプションは、エクスポート全体(ロードファイルとエクスポートコンポーネントを含む)を指定された最大サイズの複数の部分に分割し、ファミリーアイテムを含めます。

*メール、連絡先、カレンダーを*オプションを選択すると、ネイティブメールが選択した形式にエクスポートされます。

*輸出スキーム*オプションを使用して、添付ファイルを電子メールから分離するかどうかを制御できます。

この製品モジュールは、Relativity ODA LLC の製品である Relativity または Relativity One の有効なライセンスを持つ当事者のみが使用できます。Relativity ODA LLC は、この製品のテスト、評価、推奨、または認証を行っていません。

Relativity*Relativity*を選択すると、合法的なエクスポート操作中にロードファイルがRelativityにアップロードされます。エクスポートが複数のパーツに分割されている場合、各パーツは利用可能になり、前のパーツのアップロードが終了するとすぐにアップロードされます。

次の設定が必要です。

  • フィールドマッピングファイル: Nuix メタデータ プロファイルを Relativity ワークスペース フィールドにマッピングする JSON ファイルへのパス。マッピング ファイルが提供されていない場合、ロードファイルのフィールドは Relativity ワークスペースの同じ名前のフィールドにマップされます

Relativity Loadfile Upload操作でマッピングファイルを作成する方法の詳細を参照してください。
この操作は、ネイティブファイル、テキスト、メタデータのみを相対性理論にロードします。画像を読み込むには、この操作に加えて、Relativity Images Overlay操作を使用します。

2.11.70. ケースサブセットのエクスポート

この操作は、指定されたパラメーターの下のケースサブセットのスコープ内のアイテムをエクスポートします。

2.11.71. アイテムをエクスポートする

この操作は、指定されたtoにアイテムをエクスポートします。

*パスオプション*オプションは、アイテムを元のデータの*単一のディレクトリ*または*ディレクトリ構造を再作成する*にエクスポートします。

*メールをに変換*オプションを選択すると、ネイティブメールが選択した形式にエクスポートされます。

デフォルトでは、エクスポートされたアイテムのみが使用率データベースで追跡されます。オプション 使用率データでエクスポートされたアイテムの材料の子孫を追跡する を選択すると、エクスポートされたアイテムの追跡に加えて、これらのアイテムのマテリアルの子孫も追跡されます。

2.11.72. 論理イメージのエクスポート

この操作は、スコープ内のアイテムをNuix Logical Image`(NLI)`コンテナーにエクスポートします。

2.11.73. メタデータのエクスポート

この操作は、選択したメタデータプロファイルを使用して、スコープクエリに一致するアイテムのメタデータをエクスポートします。

次のソート順を適用できます。

  • ソートなし:アイテムはソートされません。

  • トップレベルアイテム日付(昇順):アイテムは、各ファミリーの最上位アイテムの日付に従って昇順でソートされます。

  • トップレベルアイテムの日付 (降順):アイテムは、各ファミリーの最上位アイテムの日付に従って降順でソートされます。

  • 証拠の順序(昇順):アイテムは、エビデンスツリーに表示されるのと同じ方法で、昇順で並べ替えられます。

*最大パス深度*オプションにはパフォーマンス上の利点はありません。スコープクエリに一致するすべてのアイテムが処理され、最大パス深度を超えるアイテムは結果のファイルに出力されません。

2.11.74. 単語リストのエクスポート

この操作は、スコープクエリに一致するアイテムから単語のリストをエクスポートします。

単語は、指定された正規表現を使用して各アイテムのテキストを分割して実行することにより抽出されます。

文字と数字のみを含む単語を抽出するサンプル正規表現:

[^a-zA-Z0-9]+

空白文字(スペース、タブ、改行、フォームフィードなど)で区切られた任意の文字を含む単語を抽出する正規表現のサンプル

\s+

指定された最小長より短い単語または最大長より長い単語は無視されます。

2.11.75. 処理レポート

この操作は、テンプレートファイルに基づいて、Excel形式で処理レポートを生成します。

カスタム テンプレートが指定されていない場合、操作では既定の Automate テンプレートが使用されます。カスタム テンプレートを作成するには、まず既定の設定で処理レポート操作を実行します。次に、最新のテンプレート ファイルのコピーを作成します。サービス アカウントで実行する場合、テンプレートは %userprofile%\.nuix\Workflow\Templates にあり、ローカル システム アカウントで実行する場合、テンプレートは C:\Windows\System32\config\systemprofile\.nuix\Workflow\Templates にあります。次に、新しく作成されたカスタム テンプレート ファイルを指すようにワークフローを変更します。
処理段階

処理段階は、ケースのアイテムのサブセットで構成され、Nuixクエリによって識別され、サイズを計算するための関連メソッドがあります。次のサイズ変更方法を使用できます。

  • 監査済みサイズ:Nuix監査サイズ

  • *ファイルサイズ*Nuixファイルサイズ

  • 文字サイズ:テキストのサイズ

  • 監査済み+テキストサイズ:監査済みのサイズとテキストのサイズの合計

  • 監査済み(添付ファイル2x):添付ファイルのサイズが2回含まれている監査済みのサイズ。これは、電子メールに添付ファイルを残すオプションを備えた合法的な輸出のサイズの見積もりである可能性があります。

  • *監査済み(添付ファイル2x)+テキストサイズ*監査済みのサイズ。添付ファイルのサイズは2回含まれ、テキストのサイズも含まれます。

  • ダイジェストサイズ:ダイジェストサイズ。アイテムにダイジェストがない場合は、ファイルサイズにフォールバックします。アイテムがファイルでない場合は、監査済みサイズにフォールバックします。

この操作のデフォルトオプションは、事前に定義されたステージ数のレポートを生成します。

  • ソースデータ

  • 抽出

  • 材料

  • 投稿の除外

  • 重複排除後

  • エクスポート

ビュー

ビューは、垂直列と水平列、ビューが適用される処理段階、アイテムの数やサイズを計算するオプション、サイズ単位など、データがレポートシートにどのように表示されるかを定義するために使用されます。

デフォルトのオプションには、いくつかの事前定義されたビューが含まれ、各ビューはExcelレポートのシートに対応しています。

  • 処理の概要

  • カストディアンによる素材アイテム

  • カストディアンによるアイテムのエクスポート

  • 年ごとの品目

  • 年ごとにアイテムをエクスポートする

  • タイプ別の素材アイテム

  • タイプ別にアイテムをエクスポート

  • 拡張子別の素材アイテム

  • 拡張子によるアイテムのエクスポート

  • 寸法別の素材画像

  • 寸法による画像のエクスポート

  • 不規則なアイテム

  • タイプ別の除外

デフォルトでは、サイズはギビバイト(GiB)で報告されます。 1 GiB = 1024 x 1024 x1024バイト= 1,073,741,824バイト。サイズの単位は、表示オプションペインで変更できます。

各ステージとビューはカスタマイズ、削除でき、新しいステージとビューを追加できます。

パラメータ`{report_password}`が設定されている場合、結果のExcelファイルは指定されたパスワードで暗号化されます。

2.11.76. 複数のケースから処理レポートを生成する

*追加のケース*オプションを使用すると、考慮する必要がある追加のケースの場所を指定することにより、複数のケースから単一のレポートを生成できます。アイテムは、最初にメインワークフローケースから評価され、次に追加のケースから提供された順序で評価されます。アイテムが同じitemで複数のケースに存在する場合、アイテムの最初のインスタンスのみが報告されます。

追加のケース オプションを使用してケースのサブセットと元のケースをレポートする場合は、ケースのサブセットからレポートを実行し、追加のケース リストに元のケースを追加します。これは、最初にケースのサブセット項目について報告し、元のケースからのこれらの項目の同一のコピーを無視するという効果があります。

2.11.77. ケース統計のスキャン

この操作では、証拠コンテナ、カストディアン、言語、タグ、日付範囲(月別)、アイテムセット、プロダクションセット、除外についてケースをスキャンし、これらのそれぞれについて、すべてのアイテムの数、監査済みアイテムの数とサイズを追跡します。 、および物理的なアイテムの数とサイズ。

結果の JSON ファイルはケース フォルダー Stores\Statistics に保存され、一元的なレポート作成のために Automate Scheduler に送信されます。

次の追加オプションを構成できます。

  • 病歴: ケース履歴のスキャンを有効にして、セッション、操作、およびボリュームを抽出します.

  • 計算サイズ: アイテムのサイズを計算する方法

  • 最大スキャン時間 (秒): この時間に達したら、それ以上のケースの詳細のスキャンを停止します.

  • ネイティブ エクスポート: エクスポートされていないマテリアルの子を含める: 選択すると、ネイティブ エクスポート イベントが発生した場合 履歴で検出された場合、エクスポートされたアイテムの素材の子もエクスポート範囲に含まれます。

  • 以前にスキャンしたケースを強制的にスキャンする: 以前にスキャンされ、新しいイベントが検出されなかった場合でも、ケースを再スキャンします

  • Automate Engineセッションをスキップしないでください: デフォルトでは、Automate Engine によって実行されるセッションは、ケース履歴スキャン中にスキップされます。このオプションを有効にすると、Automate Engine によって実行されるセッションもスキャンされます。スケジューラ使用率データベースを再構築するときにこのオプションを使用します。

2.11.78. ツリーサイズカウントレポート

この操作により、スコープ内のアイテムのサイズと数を含むツリーレポートが生成されます。

エビデンスコンテナ名や論理エビデンスファイル名など、アイテムのパスの最初の要素をレポートに含めない場合は、*パスプレフィックスを省略*オプションの値を増やします。

*最大パス深度*オプションは、レポートが生成されるネストされたアイテムの数を制限します。

カスタムテンプレートとサイズ単位の使用については、Seeを参照してください。

2.11.79. スイッチライセンス

この操作は、Automate Scheduler でジョブを実行するときに Nuix Engine によって使用されるライセンスを解放し、ライセンス ソース オプションに応じて別のライセンスを取得します。

  • なし: Nuix ライセンスを取得せず、ワークフローの残りの操作を Nuix ケースにアクセスせずに実行します

  • NMS:指定したNMSサーバーからNuixライセンスを取得

  • CLS:Nuix Cloud LicenseサーバーからNuixライセンスを取得

  • ドングル:Engine Serverに接続されたUSBドングルからNuixのライセンスを取得

  • エンジンのデフォルト: エンジンがジョブ開始時にNuixライセンスを取得したデフォルトソースからNuixライセンスを取得します

*フィルタ*を指定すると、提供されたテキストが利用可能なNuixライセンス名と説明と比較されます。

労働者*のカウントを`-1*`に指定すると、エンジンが最初に使用したデフォルトのワーカー数が選択されます。

この操作は、Automate Workflow で実行されるワークフローではサポートされていません。

2.11.80. ケースを閉じる

この操作により、現在開いている Nuix ケースが閉じられます。

*実行ログを閉じる*オプションを選択すると、ケースフォルダーstoredに保存されている実行ログが閉じられ、ケースを再度開かない限り、ログファイルは更新されません。

2.12. ヌイックスエンリッチ

これらの操作により、Nuix Enrich への接続が構成され、Nuix Enrich を使用して Nuix ケースの項目が分析されます。

2.12.1. Nuix Enrich接続を構成する

この操作は、Nuix Enrich サービスへの接続に使用される構成を設定します。

Nuix Enrich サービス IDNuix エンリッチサービス タイプのパラメータに設定する必要があります。スケジューラでワークフローを送信するときに、ユーザーは Nuix Enrich サービスを選択し、必要に応じてサービスに認証するように求められます。

2.12.2. アイテムを充実させる

この操作は、範囲内のアイテムを Nuix Enrich に送信してエンリッチし、その結果を Nuix Engine ケースのアイテムに適用します。

2.13. 自動化

これらの操作は Automate 固有のものであり、ワークフローを構成するだけでなく、API、スクリプト、外部コマンドを使用して任意のサードパーティと対話するために使用されます。

2.13.1. ログ

これにより、ユーザー定義のログが記録され、オプションで実行時にログが実行ログに出力されます。

2.13.2. プレースホルダー

この操作は、ワークフローのセクションを分離するために使用したり、ワークフロー実行の特定のセクションにジャンプするときにジャンプするアンカーとして使用したりできます。

2.13.3. パラメータの設定

この操作により、ユーザーは、ワークフローの実行範囲内に存在するカスタム パラメーターを定義できます。カスタム パラメーターは、値、説明、および検証正規表現と共に、手動で定義するか、CSV または TSV ファイルから読み込むことができます。

この操作で定義できるパラメーターには、静的パラメーターユーザー パラメータ の 2 種類があります。 静的パラメーター は運用設定で定義される固定値を持つパラメータです。 ユーザー パラメータ の場合、値を提供するためにワークフローをキューに入れるときにプロンプトが表示されます。

表示条件

表示条件を使用して、以前に入力したパラメーターの値に応じて、ユーザーが特定のパラメーターの値を入力するように求められるかどうかを判断できます。

たとえば、{perform_add_evidence}`と{source_data_location}の2つのパラメータがある場合、{perform_add_evidence}パラメータの値がTrueの場合、{source_data_location}`パラメータのみを表示するように表示条件を設定できます。

パラメータが表示条件に一致しない場合、値は空白になります。

表示条件は、現在のパラメーターの上にある同じ [パラメーターの構成] 操作で定義されたパラメーターのみを参照できます。
パラメータ値フィルタ

パラメータ タイプに応じて、次のパラメータ値ファイルを適用できます。

  • *テキスト*パラメータ値は正規表現(regex)でフィルタリング可能

  • パラメータ値は、許容される最小値と最大値を使用してフィルタリングできます

  • Relativity パラメータ値は、相対性クライアントやワークスペースなど、他の以前の相対性パラメータに基づいてフィルタリングできます。これらのフィルターは、相対性サービスを使用する必要があります

2.13.4. お知らせ

この操作は、カスタマイズされたメッセージを含む電子メール通知を送信します。

*電子メール通知*オプションを選択すると、指定したメールアドレスにメールが送信されます。環境で使用されているSMTP電子メールサーバーとポートに関する情報を入手するには、ネットワーク管理者に連絡してください。

パスワード*フィールドに入力された値は、ワークフローファイルにクリアテキストで保存されます。このフィールドにはパスワードを入力しないでください。代わりに、このフィールドを保護されたパラメータ名に設定します(例:{smtp_password}*)。保護されたパラメータ値を設定する方法については、セクションProtected Parametersを参照してください。

次の追加オプションを構成できます。

  • ワークフロー実行ログをテキストとして添付:このオプションを選択すると、WorkflowLog.txt`現在の実行ログ を含むWorkflowLog.txt`という名前のファイルがメールに添付されます。

  • 可能な場合、最後に生成されたレポートを添付します:最後に生成されたレポートファイルを添付するには、このオプションを選択します。

  • 追加の添付ファイル:メールに添付する追加のファイルを指定してください。

通知メールに複数のレポートを添付するには、パラメーターを使用してそれらのファイルへのパスを定義および保存してから、*追加の添付ファイル*セクションでそれらのパラメーターを使用します。

2.13.5. スクリプト

この操作は、Nuixの場合のコンテキストで、提供されたorまたは*スクリプトファイル*からのコードのいずれかを実行します。

この操作を使用して、既存の社内スクリプトをワークフローに統合できます。
静的パラメータへのアクセス

すべてのケースパラメータは、スクリプトの開始前に評価され、中括弧なしでスクリプト実行コンテキストの属性としてアクセスできます。たとえば、ケースフォルダーの内容を印刷するには、次のPythonスクリプトを使用できます。

import os

print "Contents of case folder: "+case_folder
for f in os.listdir(case_folder):
	print f
動的パラメータの管理

`parameters`ヘルパーオブジェクトを使用して、動的パラメーターの値を取得および設定できます。

  • get(String name)-文字列として指定された名前のパラメータの値を取得します。パラメータが定義されていない場合は、パラメータ名を返します。

  • get(String name, Object defaultValue)-Stringとして指定された名前のパラメーターの値を取得します。パラメータが定義されていない場合は、デフォルト値が返されます。

  • put(String name, String value)-指定された名前でパラメータの値を設定します。指定された名前が有効なパラメーター名でない場合は、正規化されます。

  • getAllParameterNames()-システムパラメータ、ユーザー定義パラメータ、実行プロファイルで提供されるパラメータなど、すべてのパラメータ名の名前のリストを返します

パラメータの設定と取得の例:

# Setting parameter {param1}
parameters.put("{param1}","Test Value from Script1")
print "Parameter {param1} has value: "+parameters.get("{param1}")

# Attempting to get undefined parameter {param2}
parameterValue = parameters.get("{param2}",None)
print "Parameter {param2} has value: "+str(parameterValue)

出力:

Parameter {param1} has value: Test Value from Script1
Parameter {param2} has value: None

さらに、特定のタイプに変換されたパラメーターの値を取得するには、以下のメソッドを使用します。

  • getLong(String name)-名前がLong番号として指定されたパラメーターの値を取得します。パラメータが定義されていないか、変換できない場合、例外がスローされます。

  • getLong(String name, long defaultValue)-名前がLong番号として指定されたパラメーターの値を取得します。パラメータが定義されていないか、変換できない場合は、デフォルト値が返されます。

  • putLong(String name, long value)-長い数値の値を変換し、パラメータに保存します。

  • getBoolean(String name)-ブール値として指定された名前のパラメーターの値を取得します。パラメータが定義されていないか、変換できない場合、例外がスローされます。

  • getBoolean(String name, boolean defaultValue)-ブール値として指定された名前のパラメーターの値を取得します。パラメータが定義されていないか、変換できない場合は、デフォルト値が返されます。

  • putBoolean(String name, boolean value)-ブール値を変換し、パラメータに保存します。

  • getDouble(String name)-Double番号として指定された名前のパラメーターの値を取得します。パラメータが定義されていないか、変換できない場合、例外がスローされます。

  • getDouble(String name, double defaultValue)-Double番号として指定された名前のパラメーターの値を取得します。パラメータが定義されていないか、変換できない場合は、デフォルト値が返されます。

  • putDouble(String name, double value)-Double数値を変換し、パラメーターに格納します。

  • getJsonObject(String name)-逆シリアル化されたJSONオブジェクトとして提供された名前のパラメーターの値を取得します。パラメーターが定義されていないか、JSONオブジェクトとして逆シリアル化できない場合、例外がスローされます。

  • getJsonObject(String name, Object defaultValue)-逆シリアル化されたJSONオブジェクトとして提供された名前のパラメーターの値を取得します。パラメータが定義されていないか、JSONオブジェクトとして逆シリアル化できない場合は、デフォルト値が返されます。

  • putJsonObject(String name, Object value)-値をJSON文字列としてシリアル化し、パラメーターに格納します。

パラメータ値をJSONオブジェクトに変換する場合、結果のオブジェクトタイプは逆シリアル化中に推測され、元のタイプとは異なる場合があります。

型付きパラメーターの取得と設定の例:

# Defining a Python dictionary
dictionary={}
dictionary["number"]=5
dictionary["color"]="Orange"
print "Original dictionary:"
print type(dictionary)
print dictionary

# Storing the dictionary as a parameter
parameters.putJsonObject("{sample_dictionary}",dictionary)

# Getting the parameter as an object
retrievedDictionary = parameters.getJsonObject("{sample_dictionary}")
print "Deserialized dictionary:"
print type(retrievedDictionary)
print retrievedDictionary

出力:

Original dictionary:
<type 'dict'>
{'color': 'Orange', 'number': 5}

Deserialized dictionary:
<type 'com.google.gson.internal.LinkedTreeMap'>
{u'color': u'Orange', u'number': 5.0}
組み込みパラメーターのリストについては、セクションSeeを参照してください。
カスタム スクリプトの作成、または既存のスクリプトを Automate Workflow に統合する方法については、Nuix サポートにお問い合わせください。
ワークフローの実行を管理する

ワークフローの実行は、`workflowExecution`ヘルパーオブジェクトの以下のメソッドを使用して、スクリプト操作からライブで操作できます。

  • stop()-ワークフローの実行を停止します

  • pause()-ワークフローの実行を一時停止します

  • log(String message)-メッセージをワークフロー実行ログに追加します

  • logInfo(String message)-メッセージをワークフロー情報リストに追加します

  • logWarning(String message)-ワークフローの警告にメッセージを追加します

  • addLink(String linkUrl) - ワークフローリンクリストにリンクを追加します。

  • addLink(String linkName, String linkUrl) - ワークフローリンクリストにリンクを追加します。

  • addLink(String prefix, String linkName, String linkUrl) - ワークフローリンクリストにリンクを追加します。

  • addLink(String prefix, String linkName, String linkUrl, String suffix) - ワークフローリンクリストにリンクを追加します。

  • triggerError(String message)-指定したメッセージでエラーをトリガーします

  • appendWorkflow(String pathToWorkflowFile)-ファイル`pathToWorkflowFile`のワークフローの操作を現在のワークフローの最後に追加します。

  • appendWorkflowXml(String workflowXml)-ワークフローXML`workflowXml`から現在のワークフローの最後までの操作を追加します。 `workflowXml`には、ワークフローファイルのコンテンツ全体が含まれている必要があります。

  • insertWorkflow(String pathToWorkflowFile)-現在のスクリプト操作の後に、ファイル`pathToWorkflowFile`のワークフローから操作を挿入します。

  • insertWorkflowXml(String workflowXml)-現在のスクリプト操作の後にワークフローXML`workflowXml`からの操作を挿入します。 `workflowXml`には、ワークフローファイルのコンテンツ全体が含まれている必要があります。

  • goToOperation(int id)-スクリプト操作が完了した後、指定されたIDの操作にジャンプします。最初の操作にジャンプするには、id値1を指定します。

  • goToNthOperationOfType(int n, String type)-スクリプト操作が完了した後、ワークフローから指定されたタイプのn番目の操作にジャンプします。

  • goToOperationWithNoteExact(String text)-ノートが指定されたテキストと等しいワークフロー内の最初の操作にジャンプします。

  • goToOperationWithNoteContaining(String text)-指定したテキストがノートに含まれるワークフローの最初の操作にジャンプします。

  • goToOperationWithNoteStartingWith(String text)-ノートが指定されたテキストで始まるワークフロー内の最初の操作にジャンプします。

  • getOperations()-すべての操作を返します。

  • getOperationsWithWarnings()-警告付きのすべての操作を返します。

  • getOperationsWithErrors()-エラーのあるすべての操作を返します。

  • getOperationsWithExecutionState(ExecutionState executionState)-実行状態が指定された実行状態と等しいすべての操作を返します。

  • getOperation(int id)-指定されたIDの操作を返します。

  • getOperationWithNoteExact(String text)-メモが指定されたテキストと等しいワークフローの最初の操作を返します。

  • getOperationWithNoteContaining(String text)-メモに指定されたテキストが含まれているワークフローの最初の操作を返します。

  • getOperationWithNoteStartingWith(String text)-メモが指定されたテキストで始まるワークフローの最初の操作を返します。

  • getCurrentOperationId()-現在のスクリプト操作のIDを返します。

  • getOperationsCount()-ワークフローの最後の操作のIDを返します。

  • clearStickyParameters()-ユーザープロファイルに設定されているすべてのスティッキーパラメータを削除します。

  • setProgress(double percentageComplete)-操作の進行状況を設定します。これはユーザーインターフェイスに表示され、ETA計算に使用されます。 0.0〜1.0の値を指定します。

  • setTaskName(String taskName)-スクリプトが実行しているタスクの名前を設定します。これはユーザーインターフェイスに表示されます。

実行を2回再開してから、ワークフローの最後の操作にジャンプするスクリプトの例:

count = parameters.getLong("{execution_count}",0)
count=count+1
parameters.putLong("{execution_count}",count)

if (count<3):
        workflowExecution.goToOperation(1)
else:
        workflowExecution.goToOperation(workflowExecution.getOperationsCount())
運用の管理

操作に関する情報は、`operation`ヘルパーオブジェクトから次のメソッドを使用してスクリプト操作から取得できます。

  • getId()-操作IDを返します。

  • getExecutionState()-操作の実行状態を返します。

  • getName()-操作名を返します。

  • getNotes()-操作メモを返します。

  • getErrorMessage()-操作エラーメッセージを返します。操作にエラーがない場合、この値はnullまたは空白になります。

  • getWarningMessages()-操作の警告のリストを返します。操作に警告がない場合、これは空のリストになります。

  • clearWarningMessages() - 操作警告メッセージをクリアします。

  • getStartDateTime()-操作の開始日をJodaDateTimeとして返します。

  • getFinishedDateTime()-操作の終了日をJodaDateTimeとして返します。

  • getSkippable(Boolean skippable)-スキップ可能な場合は`true`を返します。

  • getDisabled()-操作が無効になっている場合は*真実*`を返します。

  • setDisabled(Boolean disabled)-操作の無効状態を設定します。

  • getSoftFail() - エラー時に操作がソフトフェイルに設定されている場合、true を返します。

  • setSoftFail(Boolean softFail)-操作のソフトフェイル状態を設定します。

  • getEta()-操作ETAをJodaDateTimeとして返します。

  • getPercentageComplete()-操作の進行状況をパーセンテージで返します。

エラーのある最後の操作の詳細を出力するスクリプトの例:

operations_with_errors = workflowExecution.getOperationsWithErrors()

if operations_with_errors.size() >= 1:
	last_error_operation = operations_with_errors[-1]
	print "Last operation with error #{0} {1}: {2}".format(last_error_operation.getId(), last_error_operation.getName(), last_error_operation.getErrorMessage())
else:
	print "No operations encountered errors"
実行を同期する

複数のジョブ間でワークフローの特定の部分の実行を同期するには、たとえば、一度に 1 つのジョブだけがワークフローの 1 つの部分を実行するようにするには、workflowExecution ヘルパー オブジェクトの次のメソッドを使用してロックを使用します。

  • acquireLock(String lockName) - 指定された名前のロックを取得しようとします。ロックが別のジョブによって保持されている場合、ロックが使用可能になるまで、スクリプトの実行はこのステップでブロックされます。

  • boolean releaseLock(String lockName) - 指定された名前のロックを解除します。このジョブによって以前にロックが保持されていた場合は true を返します。

  • boolean tryAcquireLock(String lockName) - 指定された名前のロックが利用可能な場合は、その取得を試みます。ロックが取得された場合は true を返します。ロックを取得できない場合は、false を返して実行を続行します。

案件 ID を使用してロックを取得するためのスクリプトの例:

workflowExecution.acquireLock(matter_id)

案件 ID を使用してロックを解除するスクリプトの例:

workflowExecution.releaseLock(matter_id)
データセットのメタデータの管理

ジョブの送信時に選択されたデータ セットに関する情報は、dataSetsMetadata ヘルパー オブジェクトに格納されます。このオブジェクトはディクショナリであり、キーはデータ セット ID であり、値はデータ セットのプロパティを持つディクショナリです。

APIの呼び出し

スクリプト操作では、Automate およびサードパーティ API への呼び出しに使用できるいくつかのヘルパー オブジェクトが公開されます。これらのヘルパー オブジェクトは次のとおりです。

  • restAutomate - Automate API を呼び出します。

  • restDiscover - Nuix Discover API を呼び出します。

  • restRelativity - Relativity REST API を呼び出します。

  • rest - 汎用 REST API を呼び出します。

  • genAi - サードパーティの Gen AI サービスに電話をかけます。

REST API 呼び出しからの応答には、次のメソッドとフィールドがあります。

  • status_code - ステータスコードを表す整数

  • text - テキスト応答

  • raw - バイナリ応答

  • json() - 応答を JSON として解析した後のオブジェクト

  • raise_for_status() - ステータスコードが 4xx または 5xx の場合、例外を発生させます。

  • headers - 応答ヘッダーを含む辞書

HTTPS 経由で REST API を呼び出す場合、HTTPS 証明書が Java キーストアによって信頼されていない場合、呼び出しは失敗します。特定の SHA-256 フィンガープリント証明書フィンガープリントを持つサーバーへの接続を明示的に許可するには、次の方法を使用します。

  • setFingerprint (String fingerprint)

Automate API を呼び出す スクリプト操作から Automate API を呼び出すには、restAutomate

ヘルパー オブジェクトを使用します。

Automate インスタンスのベース URL と認証 API キーは、スクリプト操作が実行されているジョブから自動的に設定されます。ただし、これらの設定は次の方法で上書きできます。

  • setBaseUrl(String baseUrl)

  • setBearerToken(String bearerToken)

次のメソッドを使用して API エンドポイントを呼び出すことができます。

  • get(String endpoint)

  • delete(String endpoint)

  • post(String endpoint, Object data)

  • put(String endpoint, Object data)

新しいクライアントを作成する Python スクリプトの例:

body = {
  "name": "Sample Client Name",
  "description": "This client was created from the API",
  "enabled": False
}

response = restAutomate.post("/api/v1/scheduler/client", body);

print response.json();
Nuix Discover API を呼び出す スクリプト操作から Nuix Discover API

を呼び出すには、restDiscover ヘルパー オブジェクトを使用します。

Nuix Discover API のベース URL と認証 API キーは、Use Nuix Discover Case オペレーションから自動的に設定されます。ただし、これらの設定は次の方法で上書きできます。

  • setBaseUrl(String baseUrl)

  • setBearerToken(String bearerToken)

次のメソッドを使用して API エンドポイントを呼び出すことができます。

  • call(String query)

  • call(String query, Map<String,Object> variables)

John という名前のユーザーに対して GraphQL クエリを実行する Python スクリプトの例:

body = '''
query MyQuery ($fn: String){
  users(firstName: $fn) {
    id,
    fullName
  }
}
'''
variables = {"fn":"John"}

response = restDiscover.call(body,variables);
print response.json();
Relativity API の呼び出し スクリプト操作から Relativity Rest API

を呼び出すには、restRelativity ヘルパー オブジェクトを使用します。

Relativity サーバーの URL と認証ヘッダーは、「Relativity 接続の構成」操作から自動的に設定されます。ただし、これらの設定は次の方法で上書きできます。

  • setBaseUrl(String baseUrl)

  • setBearerToken(String bearerToken)

  • setBasicAuth(String username, String password)

次のメソッドを使用して API エンドポイントを呼び出すことができます。

  • get(String endpoint)

  • delete(String endpoint)

  • post(String endpoint, Object data)

  • put(String endpoint, Object data)

  • queryObjectManager(String objectTypeName, Long workspaceArtifactId, String condition, int start, int length)

  • queryObjectManager(String objectTypeName, Long workspaceArtifactId, String condition, String[] fieldNames, int start, int length)

  • queryObjectManagerSlim(String objectTypeName, Long workspaceArtifactId, String condition, int start, int length)

  • queryObjectManagerSlim(String objectTypeName, Long workspaceArtifactId, String condition, String[] fieldNames, int start, int length)

Relativity Object Manager に特定の名前のワークスペースをクエリし、アーティファクト ID を出力する Python スクリプトの例:

workspaceName = "Relativity Starter Template"

body = {
    "request": {
        "Condition": "'Name' == '"+workspaceName+"'",
        "ObjectType": {
            "ArtifactTypeID": 8
        },
        "Fields": [{
                "Name": "Name"
            }
        ]
    },
    "start":0,
    "length":1000
}

response = restRelativity.post("/Relativity.Rest/api/Relativity.ObjectManager/v1/workspace/-1/object/query",body)
response.raise_for_status()

print("Response count: "+str(int(response.json()["TotalCount"])))
for responseObject in response.json()["Objects"]:
    print "ArtifactID: "+str(int(responseObject["ArtifactID"]))
    for fieldValue in responseObject["FieldValues"]:
        print(fieldValue["Field"]["Name"]+": "+fieldValue["Value"])

queryObjectManager ヘルパーを使用してすべての事項の名前とクライアント名をクエリする Python スクリプトの例:

fields = ["Name", "Client Name"]

response = restRelativity.queryObjectManager("Matter", -1, None, fields, 1, 10000)
response.raise_for_status()

print("Response count: "+str(int(response.json()["TotalCount"])))
for responseObject in response.json()["Objects"]:
    print "ArtifactID: "+str(int(responseObject["ArtifactID"]))
    for fieldValue in responseObject["FieldValues"]:
        print(fieldValue["Field"]["Name"]+": "+fieldValue["Value"])
汎用 API の呼び出し スクリプト操作から汎用 API を呼び出すには、rest ヘルパー オブジェクトを使用します。

ベース URL は、次の方法を使用してオプションで設定できます。

  • setBaseUrl(String baseUrl)

認証は、次の方法を使用してオプションで設定できます。

  • setBearerToken(String bearerToken)

  • setBasicAuth(String username, String password)

カスタム ヘッダーは、次の方法を使用してオプションで設定できます。

  • setHeader(String name, String value)

次のメソッドを使用して API エンドポイントを呼び出すことができます。

  • get(String endpoint)

  • delete(String endpoint)

  • post(String endpoint, Object data)

  • put(String endpoint, Object data)

REST API をクエリする Python スクリプトの例:

response = rest.get("https://dummy.restapiexample.com/api/v1/employees");
print response.json();

REST クライアントは MultiPart リクエストをサポートします。MultiPart リクエストを送信するには、ユーザーは次のメソッドを使用してビルダー オブジェクトを取得する必要があります。

  • getMultiPartBuilder()

ユーザーが MultiPart ビルダー オブジェクトを取得すると、次のメソッドを使用できるようになります。

  • addMultiPart(String content, String contentType): マルチパートリクエストにボディパートを追加します

  • addMultiPart(String content, String contentType, String contentDisposition): Content-Disposition ヘッダー付きのマルチパートリクエストにボディ部分を追加します

  • reset(): MultiPartオブジェクトをリセットします

  • build(): MultiPartオブジェクトを返します

MultiPart オブジェクトを投稿する Python スクリプトの例

builder = rest.getMultiPartBuilder()
builder.addMultiPart("aaaaaaaaa","application/javascript")
builder.addMultiPart("bbbbbbbbb","image/gif")
body = builder.build()

response = rest.post("https://multipart.requestcatcher.com/test",body);
print response.json()
Gen AI を呼び出す サードパーティの Gen AI サービス genAi ヘルパー オブジェクトを呼び出します。

以下の方法を使用できます。

  • getModel(): 使用されているモデルの名前を返します

  • getApiUrl(): 使用中のAPIのURLを返します

  • getServiceRoot(): api. 値を除いた API のドメイン名を返します

  • getCompletionMessage(List<Map<String,String>> genAiChatRequestMessages): Gen AIからのテキスト応答を取得します

  • getCompletions(List<Map<String,String>> genAiChatRequestMessages): Gen AIから完了オブジェクトを取得します

応答を取得するための簡単な呼び出しを含む Python スクリプトの例:

messages = [
    { 'role': 'system', 'content': 'You always respond with 10 words in English followed by a word in French.' },
    { 'role': 'user', 'content': 'What''s in this image?' },
    { 'role': 'user', 'imageMimeType': 'image/png', 'imageBase64': 'iVBORw0KGgoAAAANSUhEUgAAAQAAAAEACAIAAADTED8xAAADMElEQVR4nOzVwQnAIBQFQYXff81RUkQCOyDj1YOPnbXWPmeTRef+/3O/OyBjzh3CD95BfqICMK0CMK0CMK0CMK0CMK0CMK0CMK0CMK0CMK0CMK0CMK0CMK0CMK0CMK0CMK0CMK0CMK0CMK0CMK0CMK0CMK0CMK0CMK0CMK0CMK0CMK0CMK0CMK0CMK0CMK0CMK0CMK0CMK0CMK0CMK0CMK0CMK0CMK0CMK0CMK0CMK0CMK0CMK0CMK0CMK0CMK0CMK0CMK0CMK0CMK0CMK0CMK0CMK0CMK0CMK0CMK0CMK0CMK0CMK0CMK0CMK0CMK0CMK0CMK0CMK0CMK0CMK0CMK0CMK0CMK0CMK0CMK0CMK0CMK0CMK0CMK0CMK0CMK0CMK0CMK0CMK0CMK0CMK0CMK0CMK0CMK0CMK0CMK0CMK0CMK0CMK0CMK0CMK0CMK0CMK0CMK0CMK0CMK0CMK0CMK0CMK0CMK0CMK0CMK0CMK0CMK0CMK0CMK0CMK0CMK0CMK0CMK0CMK0CMK0CMK0CMK0CMK0CMK0CMK0CMK0CMK0CMK0CMK0CMK0CMK0CMK0CMK0CMK0CMK0CMK0CMK0CMK0CMK0CMK0CMK0CMK0CMK0CMK0CMK0CMK0CMK0CMK0CMK0CMK0CMK0CMK0CMK0CMK0CMK0CMK0CMK0CMK0CMK0CMK0CMK0CMK0CMK0CMK0CMK0CMK0CMK0CMK0CMK0CMK0CMK0CMK0CMK0CMK0CMK0CMK0CMK0CMK0CMK0CMK0CMK0CMK0CMK0CMK0CMK0CMK0CMK0CMK0CMK0CMK0CMK0CMK0CMK0CMK0CMK0CMK0CMK0CMK0CMK0CMK0CMK0CMK0CMK0CMK0CMK0CMK0CMK0CMK0CMK0CMK0CMK0CMK0CMK0CMK0CMK0CMK0CMK0CMK0CMK0CMK0CMK0CMK0CMK0CMK0CMK0CMK0CMK0CMK0CMK0CMK0CMK0CMK0CMK0CMK0CMK0CMK0CMK0CMK0CMK0CMK0CMK0CMK0CMK0CMK0CMK0CMK0CMK0CMK0CMK0CMK0CMK0CMK0CMK0CMK0CMK0CMK0CMK0CMK0CMO0TAAD//2Anhf4QtqobAAAAAElFTkSuQmCC'}
]

response = genAi.getResponseMessage(messages);

print(response)

応答の詳細を取得するための呼び出しを含む Python スクリプトの例:

print("Setup:")
print("\tModel: "+genAi.getModel())
print("\tService Name: "+genAi.getServiceName())


messages = [
    { 'role': 'system', 'content': 'You always respond with 10 words in English followed by a word in French.' },
    { 'role': 'user', 'content': 'Hi, who are you' },
    { 'role': 'assistant', 'content': 'I am a warrior' },
    { 'role': 'user', 'content': 'Why did you say that?' }
]

response = genAi.getResponse(messages);

print("\tMessage: "+response.getMessage().getContent())
print("\tRole: "+response.getMessage().getRole())

usage = response.getUsage()
print("Usage: ")
print("\tPrompt tokens: "+str(usage.getPromptTokens()))
print("\tCompletion tokens: "+str(usage.getCompletionTokens()))

利用可能なモデルをリストし、スクリプトのスコープにカスタムモデルを選択するための Python スクリプトの例

print "Available models: "
for availableModel in genAi.getAvailableModels():
    print "\t"+availableModel.getId()+" ("+availableModel.getName()+")";

genAi.setModel("llava:34b")

print("Setup:")
print("\tModel: "+genAi.getModel())

2.13.6. パワーシェル

この操作は、指定された PowerShell スクリプトを実行します。

パラメータ値の取得

指定されたコードから PowerShell スクリプトを実行すると、コードの実行前にコード内で使用される Automate パラメータが評価されます。PowerShell スクリプト ファイルの実行時には、Automate パラメータの評価は実行されません。

たとえば、次の PowerShell スクリプト コードは次のとおりです。

Write-Host "The time is: {date_time}"

次の出力が生成されます。

Running PowerShell code
The time is: 20221006-132923
PowerShell exited with code 0
パラメータ値の設定

PowerShell スクリプトから Automate パラメータ値を設定するには、パラメータの値を特定の場所のファイルに書き込む必要があります。PowerShell スクリプトは Automate ワークフローと同じコンテキストで実行されないため、このメカニズムが必要になります。

{sample_parameter_name} という名前のパラメーターを設定するには、PowerShell スクリプトは、フォルダー {powershell_parameters} 内の sample_parameter_name という拡張子のないファイルにパラメーターの値を書き込む必要があります。次に例を示します。

Set-Content -NoNewline -Path {powershell_parameters}\sample_parameter_name -Value $SampleValue
パラメーター {powershell_parameters} は、PowerShell 操作の実行時に一時パスに自動的に割り当てられるため、他の場所で定義する必要はありません。このメカニズムを PowerShell スクリプトで使用するには、このパラメーターの値を引数としてスクリプトに渡します。

たとえば、PowerShell で現在の日付と時刻を取得し、Automate パラメータに設定するには、次の PowerShell コードを使用します。

$CurrentDate = Get-Date
Set-Content -NoNewline -Path {powershell_parameters}\date_from_powershell -Value $CurrentDate

2.13.7. 外部アプリケーションを実行する

この操作は、指定された引数で実行可能ファイルを実行し、それが完了するのを待ちます。

robocopyを使用してフォルダーをコピーする例:

  • アプリケーションの場所:C:\Windows\System32\Robocopy.exe

  • 引数:"C:\Program Files\Automate" "C:\Temp\Automate" /E

cmd.exeを使用してフォルダーを一覧表示し、出力をC:\ Tempフォルダー内のテキストファイルにリダイレクトする例:

  • アプリケーションの場所:C:\Windows\System32\cmd.exe

  • 引数`/c dir "C:\Program Files" > "listing_{date_time}.txt"`

  • 作業ディレクトリ:C:\Temp

2.13.8. API を呼び出す

この操作は API 呼び出しを行います。

次のオプションを構成できます。

  • 動詞: GETPOST. などの HTTP 動詞。

  • URL: URLです

  • 証明書の指紋: オプション、証明書が自己署名であっても信頼されるべき証明書 SHA-256 フィンガープリント。

  • 認証タイプ: APIが要求する認証の種類

    • 認証なし: 認証なし

    • APIキー: ヘッダーとして設定される*API キー名*と*API キーの値*を指定します.

    • 無記名トークン: トークン の値を入力します。

    • 基本認証: ユーザー名パスワード を入力してください。

  • パラメーター: オプションの URL パラメータ。

  • ヘッダー: オプションのカスタム HTTP ヘッダー

  • ボディタイプ:提出するボディデータの種類

    • なし: 提出するデータがありません

    • フォームデータ: フォーム フィールド 名前価値観. を提供します。

    • : *ボディタイプ*とデータを提供します.

    • バイナリ: バイナリ データを含む ファイルの場所 を指定します。

API 呼び出しが完了すると、次のパラメーターが入力されます。

  • {call_api_response_code}: HTTP 応答コード。

  • {call_api_response_headers}: JSON エンコードされた応答ヘッダー。

  • {call_api_response_body}: レスポンスボディ。

2.13.9. ネイティブOCRを構成する

この操作により、Automate OCR の構成が設定されます。

Automate OCR は、マンハイム大学図書館によって構築された Tesseract/Leptonica バイナリを使用します。ネイティブ OCR 操作を実行する前に、Automate OCR または Tesseract OCR の別のディストリビューションをインストールする必要があります。

操作には次の設定があります。

  • 労働者の割り当て

    • あらかじめ決められた:指定された人数のワーカーを使用してください

    • CPUコアあたり:CPUコアの数の比率としてワーカーの数を使用します。たとえば、16コアのサーバーでは、0.8の比率は12コアに対応します(つまり、16コアの80%)

  • OCRエンジンバイナリフォルダ: オプション、Automate OCR または Tesseract OCR がインストールされているフォルダー。

  • ユーザーワードファイル:オプションで、Tesseractワードファイルへのパス。

  • ユーザーパターンファイル:オプションで、Tesseractパターンファイルへのパス。

  • 画像解像度:オプションで、画像のDPIでのソース画像の解像度(わかっている場合)

  • PDF解像度をラスタライズ:オプションで、OCRの前にPDFファイルをラスター化するときに使用する解像度。

  • OCRエンジンログレベル:オプションで、TesseractOCRエンジンのログレベル。

  • 言語:オプションで、テキストが書かれている言語(わかっている場合)。複数の言語を構成する場合は、プラス記号で区切ります(例:eng+deu+fra. )。

Tesseractでサポートされている言語のリストについては、https://github.com/tesseract-ocr/tessdoc/blob/main/Data-Files-in-different-versions.mdを参照してください。
  • ページセグメンテーションモード:オプション、ページのセグメント化に使用される方法

Tesseractでサポートされているページセグメンテーションモードのリストについては、https://tesseract-ocr.github.io/tessdoc/ImproveQuality.html#page-segmentation-methodを参照してください。
  • 傾き調整:設定されている場合、プリプロセッサはOCRを実行する前にイメージをデスキューしようとします。

*傾き調整*オプションは、一般的な画像形式とPDFファイルでのみ使用できます。画像のリストを含むソーステキストファイルには使用できません。
*傾き調整*オプションは、小さな角度の回転のみを修正し、画像を90度、180度、または270度回転しません。
  • 回転する: 設定されている場合、プリプロセッサは OCR を実行する前に画像を回転させます。 自動検出 オプションを使用すると、OCR エンジンは最初に 0 - 向きとスクリプト検出 (OSD) のみ モードで実行されて向きを検出し、次にユーザー設定モードで回転した画像に対して 2 回目の実行を行います。

自動検出 回転モードを使用する場合、ほとんどの場合、特定の ページセグメンテーションモード を選択しないか、OSD なしのモードを選択するのが最適です。これは、画像が既に正しい向きになっているためです。
  • OCRエンジンモード:オプションで、OCRエンジンを実行するモード。このオプションは、カスタムTesseractビルドを使用する場合にのみ使用してください。

  • OCRエンジン構成ファイル:オプションで、構成変数で使用するTesseract構成ファイル。

  • ファイルごとのタイムアウト:オプションで、OCRエンジンが単一のファイルで実行できる最大期間。複数のページが含まれている可能性があります。

  • OCR一時フォルダ:オプションで、OCR操作のファイル中に使用される一時ファイルが作成されるフォルダー。設定されていない場合、OCRテキストがエクスポートされる宛先フォルダーまたはNuixケースフォルダー内に一時フォルダーが作成されます。

  • 完了時にOCR一時フォルダをクリアしないでください:設定されている場合、OCR一時フォルダはOCR完了時に削除されません。このオプションは、中間の一時ファイルを検査することにより、OCRプロセスのトラブルシューティングに使用できます。

2.13.10. ネイティブOCRアイテム

この操作は、Nuix ケース アイテムに対して Automate OCR エンジンを使用して OCR を実行します。この操作は、Nuix アイテムにバイナリ データが保存されている場合に最も効果的に実行されるように設計されています。

バイナリ データが保存されていない Nuix アイテムに対して ネイティブOCRアイテム 操作を実行すると、OCR にかなりの時間がかかります。この操作を実行する前に、証拠を追加 操作中にアイテム バイナリを保存するか、バイナリストアに入力する 操作を使用して、OCRed が必要なアイテムのバイナリを入力します。

Automate OCR エンジンでサポートされている PDF または画像形式のアイテムは、Nuix アイテムからネイティブ ファイルとして抽出され、OCR 処理されます。その他のすべてのアイテムについては、印刷された画像が Nuix 内で生成され、OCR 処理されます。

OCRエンジンの設定は、Configure Native OCR操作で定義されます。

CSV要約レポートが作成され、すべてのソースアイテム、OCRの成功ステータス、およびOCRプロセスのその他の詳細が一覧表示されます。

操作には次の設定があります。

  • スコープクエリ: OCRする項目を選択するためのNuixクエリ

  • テキストの変更

    • アペンド:抽出したテキストを既存のドキュメントテキストの最後に追加します。

    • 上書き:文書テキストを抽出したテキストに置き換えます

  • 検索可能なPDFを作成する:設定されている場合は、抽出されたテキストをオーバーレイしてPDFファイルを生成し、アイテムの印刷画像として設定します。

*失敗したアイテムにタグを付ける*オプションの動作は、リーガルエクスポート操作の場合と同じです。

2.13.11. ネイティブOCR画像ファイル

この操作では、画像ファイルに対して Automate OCR エンジンを使用して OCR を実行します。

サポートされている画像ファイル形式のリストについては、https://github.com/tesseract-ocr/tessdoc/blob/main/InputFormats.md を参照してください。このファイル形式に加えて、Automate はソース PDF ファイル (画像にラスタライズされます) と画像ファイルのリストを含むテキスト ファイルをサポートしています。

OCRエンジンの設定は、Configure Native OCR操作で定義されます。

ソース画像ファイルごとに、対応するテキストファイルが*出力テキストファイルフォルダ*に書き込まれます。 `summary_report.csv`という名前のCSVレポートが作成され、すべてのソースファイル、OCRの成功ステータス、結果のテキストファイルのパスとサイズ、およびOCRエンジンの出力が一覧表示されます。

操作には次の設定があります。

  • ソース画像ファイルフォルダ:OCRedとなる画像ファイルが入っているフォルダ

  • フォルダーを再帰的にスキャンする: 設定すると、ソースフォルダーが再帰的にスキャンされ、同じフォルダー構造を使用して出力ファイルが作成されます

  • 空でない既存のテキストファイルを含む画像をスキップする:設定すると、宛先フォルダに名前とサイズが0より大きいテキストファイルが存在する場合、画像がスキップされます。

  • ページの正規表現を組み立てる:ページごとに1つの画像ファイルでエクスポートされた複数ページのドキュメントを検出するために使用する正規表現。正規表現には、ドキュメントのベース名を選択するために使用される一致するグループが少なくとも1つ必要です。

  • 出力テキストファイルフォルダ:テキストファイルが作成されるフォルダ

  • 不完全なファイルを保持する:設定されている場合、OCRエンジンからの空のファイルと不完全なテキストファイルは削除されません。

  • 検索可能なPDFを作成する:設定されている場合、ソース画像は*出力テキストファイルフォルダ*でPDFファイルに変換され、抽出されたテキストがオーバーレイされます。

  • PDFファイルフォルダを出力:PDFファイルが作成されるフォルダー。このフィールドが空白の場合、 デフォルトで出力テキストファイルフォルダになります。

2.14. Relativity

これらの操作により、Nuix ケースと Relativity の間でデータが転送され、Relativity でのさまざまな操作を管理できるようになります。

2.14.1. 相対性理論の接続を構成する

この製品モジュールは、Relativity ODA LLC の製品である Relativity または Relativity One の有効なライセンスを持つ当事者のみが使用できます。Relativity ODA LLC は、この製品のテスト、評価、推奨、または認証を行っていません。

この操作は、相対性環境への接続に使用される構成を設定します。

オプションで、相対性サービス を使用して、タイプ 相対性サービス のパラメーターを指すことができます。 Scheduler でのワークフローの送信中に、ユーザーは Relativity Service を選択し、必要に応じてサービスに対して認証するよう求められます。

相対性サービスを使用しない場合、操作で次のオプションが明示的に定義されます。

  • ホスト名: Relativity のホスト名、例えば relativity.example.com.

  • サービスエンドポイント: 相対性サービス エンドポイント、たとえば /relativitywebapi.

  • エンドポイントタイプ: 相対性エンドポイント タイプ、たとえば HTTPS.

  • ユーザー名: Relativity へのインポートに使用したユーザー名

  • パスワード:上記ユーザー名のパスワードです

このフィールドに入力した値は、ワークフローファイルにクリアテキストで保存されます。このフィールドにはパスワードを入力しないでください。代わりに、このフィールドをparameterなどの保護されたパラメーター名に設定し、保護されたパラメーター値を設定する方法についてはセクションProtected Parametersを参照してください。
  • スレッドをインポートする: Legal Export、Relativity Loadfile Upload、Relativity Images Overlay、Relativity Metadata Overlay、Relativity CSV Overlay などの Relativity アップロードに使用する並列スレッドの数

  • インポートスレッドのタイムアウト: Relativity アップロード スレッドをアイドル状態にする秒数。許可されたタイムアウトを超えて進行状況が報告されない場合、インポート スレッドは中止されます

  • スレッドの再試行をインポートする: インポートで致命的なエラーやタイムアウトが発生した場合に、インポート スレッドの実行を再試行する回数

  • メタデータスレッド: 相対性フォルダーの作成など、相対性メタデータ操作に使用する並列スレッドの数

  • 無効なエントリにパッチを適用する: このオプションを選択すると、次の問題が原因でアップロードに失敗したエントリに自動的にパッチが適用されます:

    • フィールド値が長すぎます-アップロードされたフィールド値は相対性理論で許可されている最大長にトリミングされています。

    • 日付の形式が正しくないなどの理由でフィールド値が無効-フィールド値は相対性にアップロードされたアイテムから削除されます。

    • テキストファイルのネイティブがありません-Relativityにアップロードされたアイテムからネイティブまたはテキストコンポーネントが削除されています。

  • クライアントのバージョン: チェックを外すと、Automate は Relativity サーバーのバージョンに最も近い Relativity クライアントのバージョンを使用します。チェックを入れると、 Automate は指定された Relativity クライアントのバージョンを使用します (使用可能な場合)。

  • RESTバージョン: ワークスペースやフォルダーなどの Relativity オブジェクトを照会するときに使用する REST サービスのバージョン。 Relativity One の場合は、REST (v1 Latest). を使用します。

*REST (Server 2021)*バージョンには、Relativity Server Patch(Q3 2021)以降が必要です。
*スレッドをインポートする*の値は、Nuixワーカーの数とは無関係です。複数のインポートスレッドを使用する場合、ロードファイルまたはオーバーレイファイルが分割され、データが並行してRelativityにアップロードされます。複数のスレッドが並行してデータをロードするため、このメソッドは、並べ替え順序が指定されていない場合、Relativityでドキュメントが表示される順序に影響を与えます。

2.14.2. 相対性理論クライアントを設定する

この操作では、次の設定を使用して、相対性理論環境でクライアントを選択します。

  • クライアント識別子: Relativity クライアントの 名前 または アーティファクトID

  • 既存のクライアント: クライアントが存在しない場合のアクション:

    • *クライアントが存在しない場合は作成します*新しいクライアントを作成します。

    • *既存のクライアントのみを使用する*クライアントが存在しない場合、エラーが発生します。

新しいクライアントを作成する場合は、次の設定が適用されます。

  • クライアント番号: クライアントに設定するクライアント番号

  • ステータス識別子: オプション。クライアントに設定するステータスの 名前 または アーティファクトID

  • キーワード: オプション、クライアントに設定するキーワード

  • 注記: オプション、クライアントに設定するメモ

2.14.3. 相対性理論を設定する

この操作では、次の設定を使用して、相対性理論環境で物質を選択します。

  • 物質識別子: 相対性理論の 名前 または アーティファクトID

*相対性理論クライアントを設定する*操作が以前に使用されていたとしても、問題はそれが属するクライアントに関係なく相対性理論で選択されます。
  • 既存事項: 案件がない場合の対処法:

    • *存在しない場合は問題を作成する*は新しい問題を作成します。

    • *既存の問題のみを使用する*問題が存在しない場合、エラーが発生します。

新しい問題を作成する場合は、次の設定が適用されます。

  • 物質番号:案件に設定する案件番号

  • ステータス識別子: 任意, 案件に設定するステータスの 名前 または アーティファクトID.

  • キーワード:任意、案件に設定するキーワード

  • 注記: 任意、案件に設定するメモ

新しいマターが作成されると、前の*相対性理論クライアントを設定する*操作で選択したクライアントの下に作成されます。

2.14.4. 相対性理論ワークスペースを設定する

この操作では、次の設定を使用して相対性理論環境のワークスペースを選択します。

  • ワークスペース識別子: Relativity ワークスペースの 名前 または アーティファクトID

ワークスペースは、*相対性理論クライアントを設定する*または*相対性理論を設定する*操作が以前に使用されていた場合でも、クライアントとそれが属する問題に関係なく、相対性理論で選択されます。
  • フォルダパス: ワークスペース内のパス。空欄の場合はワークスペースのルートにあたるフォルダを取得します

  • フォルダパスが存在しない場合は作成します。: チェックを入れると、指定したフォルダパスがワークスペースに存在しない場合に作成されます

  • 既存のワークスペース: ワークスペースが存在しない場合のアクション:

    • *ワークスペースがまだ存在しない場合は、クローンを作成します*ソースWorkspaceのクローンを作成して新しいWorkspaceを作成します。

    • *既存のワークスペースのみを使用*ワークスペースが存在しない場合、エラーが発生します。

  • クローン設定: ワークスペースを複製する際の設定

    • ワークスペース名:新しく作成したワークスペースに付ける名前

    • 案件:ワークスペースのクローンを作成するときに使用する事項

    • ワークスペーステンプレート:ワークスペースのクローンを作成するときに使用するワークスペーステンプレート

    • リソースプール:ワークスペースのクローンを作成するときに使用するリソースプール。この設定が定義されていない場合、相対性理論環境で最初に使用可能なリソースプールが選択されます。

    • データベースの場所:ワークスペースのクローンを作成するときに使用するデータベースの場所。この設定が定義されていない場合、相対性理論環境で最初に使用可能なデータベースの場所が選択されます。

    • デフォルトのファイルリポジトリ:ワークスペースのクローンを作成するときに使用するデフォルトのファイルリポジトリ。この設定が定義されていない場合、相対性理論環境で最初に使用可能なデフォルトのファイルリポジトリが選択されます。

    • デフォルトのキャッシュの場所:ワークスペースのクローンを作成するときに使用するデフォルトのキャッシュの場所。この設定が定義されていない場合、相対性理論環境で最初に使用可能なデフォルトのキャッシュの場所が選択されます。

    • ステータス:ワークスペースのクローンを作成するときに使用するステータス。この設定が定義されていない場合、相対性理論環境で最初に使用可能なステータスが選択されます。

ワークスペースのクローンを作成すると、前の*相対性理論を設定する*操作で選択した事項の下に作成されます。

2.14.5. 相対性ワークスペースを削除

この操作は、指定されたワークスペースが存在する場合、それを削除します。

2.14.6. 相対性グループを作成する

この操作は、次の設定を使用して、前の 相対性理論クライアントを設定する 操作を使用して選択されたクライアントの下に Relativity に 1 つまたは複数のグループを作成します。

  • グループ名:作成するグループ名

  • キーワード: 任意、作成したグループに割り当てるキーワード

  • 注記: 任意、作成したグループに割り当てるメモ

指定された名前のグループがクライアントの下に存在する場合、グループは作成されず、代わりにグループ名とアーティファクトIDがログに記録されます。

グループ設定の値を手動で指定するだけでなく、ユーザーは次のように CSV または TSV ファイルから読み込むこともできます。

Group Name   Keywords    Notes
Reviewer    reviewer    Simple group for reviewer
Admin   admin   Group for admins

2.14.7. Relativity ワークスペース グループの管理

この操作は、次の設定を使用して、前の 相対性理論ワークスペースを設定する 操作を使用して選択されたワークスペースの下の Relativity でグループを追加または削除します。

  • グループ識別子の種類: ワークスペース グループに使用される識別子の種類、名前 または アーティファクトID.

  • グループアクション: グループに対して実行されるアクション、追加 または 削除する.

  • グループ設定表

    • グループ識別子: グループ識別子の種類 フィールドで定義されるグループの 名前 または アーティファクトID

ワークスペース グループの値を手動で指定するだけでなく、ユーザーは次のように CSV または TSV ファイルから読み込むこともできます。

Group Identifier
Domain Users
Level 1
Level 2

ワークスペース グループは、ワークスペース グループ ファイル オプションを使用して、ワークフローの実行中にファイルから読み込むこともできます。

2.14.8. 相対性ユーザーの作成

この操作は、次の設定を使用して、前の 相対性理論クライアントを設定する 操作を使用して選択されたクライアントの下に Relativity で 1 人以上のユーザーを作成します。

  • ユーザー テンプレート識別子: プロパティのコピー元のユーザーの 名前アーティファクトID、または 電子メールアドレス

識別子のタイプ 名前 を選択する場合、相対性理論の完全な名前を指定する必要があります。
テンプレート ユーザーが有効な場合、作成されたすべてのユーザーも有効になり、Relativity にアクセスできます。テンプレート ユーザーが無効な場合、作成されたユーザーは Relativity にアクセスできなくなります。
  • 招待メールを送信: 作成した各ユーザーに招待メールを送信します

  • ユーザー設定

    • メール: 作成するユーザーのメール

    • ファーストネーム: 作成するユーザー名

    • 苗字: 作成するユーザーの姓

    • キーワード: 任意、作成したグループに割り当てるキーワード

    • 注記: 任意、作成したグループに割り当てるメモ

    • ログイン方法のユーザー識別子: オプション、テンプレート ユーザーからコピーされたログイン方法のサブジェクトまたはアカウント名。

ユーザー設定の値を手動で指定するだけでなく、ユーザーは次のように CSV または TSV ファイルから読み込むこともできます。

Email   First Name    Last Name    Keywords    Notes    Login Method User Identifier
jon.doe@hotmail.com Jon Doe Reviewer    User    created by Automate  j.doe
el.mills@gmail.com  Elisa   Mills   Support User    created by Automate  e.mills

ユーザー設定は、ユーザー設定ファイル オプションを使用して、ワークフローの実行中にファイルから読み込むこともできます。

2.14.9. Relativity ユーザーの管理

この操作では、次の設定を使用して、相対性理論から 1 人以上のユーザーを削除します。

  • ユーザー識別子のタイプ: ユーザーの取得に使用される識別子のタイプ: 名前アーティファクトID、または 電子メールアドレス.

ユーザー ID に ID タイプ 名前 を選択する場合は、フルネームを指定する必要があります。
  • ユーザーアクション: ユーザーに対して実行されるアクション、削除.

  • ユーザー

    • ユーザー識別子: ユーザーの 名前アーティファクトID、または 電子メールアドレス

ユーザーに手動で値を提供することに加えて、ユーザーは CSV または TSV ファイルからロードすることもできます。次に例を示します。

User Identifier
jon.doe@hotmail.com
el.mills@gmail.com

ユーザーファイル オプションを使用して、ワークフローの実行中にファイルからユーザーをロードすることもできます。

2.14.10. 相対性グループのユーザーを管理する

この操作では、次の設定を使用して、グループから 1 人以上のユーザーを追加または削除します。

  • グループ識別子: ユーザーを追加または削除するグループの 名前アーティファクトID、または お名前(いいね)

  • ユーザー識別子のタイプ: ユーザーの取得に使用される識別子のタイプ: 名前アーティファクトID、または 電子メールアドレス.

識別子の種類 名前 を選択する場合は、フルネームを指定する必要があります。
  • ユーザーグループアクション: グループのユーザーに対して実行されるアクション、追加 または 削除する.

  • グループ ユーザー

    • ユーザー識別子: ユーザーの 名前アーティファクトID、または 電子メールアドレス

グループ ユーザーの値を手動で指定するだけでなく、ユーザーは次のように CSV または TSV ファイルから読み込むこともできます。

User Identifier
jon.doe@hotmail.com
el.mills@gmail.com

グループ ユーザーは、グループ ユーザー ファイル オプションを使用して、ワークフローの実行中にファイルから読み込むこともできます。

2.14.11. クエリ相対性ワークスペース グループのアクセス許可

この操作は、相対性グループの権限を指定された場所に JSON ファイルとしてエクスポートします。

2.14.12. 相対性ワークスペース グループの権限を適用する

この操作は、次の設定を使用して、相対性グループにアクセス許可を適用します。

  • グループ識別子: パーミッションを適用するグループの 名前アーティファクトID、または お名前(いいね)

  • アクセス許可 JSON: オプションで、権限ファイルの内容

  • アクセス権ファイル: クエリ相対性ワークスペース グループのアクセス許可 操作によって作成された権限ファイル。

2.14.13. 相対性ワークスペース グループの権限をコピー

この操作は、次の設定を使用して、相対性ワークスペース内のグループに割り当てられた権限を別のグループまたはワークスペースにコピーします。

アクセス許可を次からコピー:

  • ソースワークスペース識別子: ソース ワークスペースの 名前アーティファクトID、または お名前(いいね)

  • ソース グループ識別子: ソース グループの 名前アーティファクトID、または お名前(いいね)

に:

  • 宛先ワークスペース識別子: ソース ワークスペースの 名前アーティファクトID、または お名前(いいね)

  • 宛先グループ識別子: ソース グループの 名前アーティファクトID、または お名前(いいね)

2.14.14. 相対性フォルダを作成する

この操作により、リストの CSV ファイルから Relativity ワークスペースにフォルダーが作成されます。リスト ファイルには 1 つの列が必要で、列の名前には フォルダ または または ロケーション という単語が含まれている必要があります。

複雑なフォルダー構造でドキュメントをRelativityにアップロードする場合、フォルダー構造を準備するためにアップロードの前にuseを使用することをお勧めします。

2.14.15. 相対ロードファイルのアップロード

この操作は、Concordance または CSV ロードファイルを Relativity にロードします。

次の設定が必要です。

  • ロードファイルの場所: ロードファイルへのパス

  • フィールドマッピングファイル: Nuix メタデータ プロファイルを Relativity ワークスペース フィールドにマッピングする JSON ファイルへのパス。マッピング ファイルが提供されていない場合、ロードファイルのフィールドは Relativity ワークスペースの同じ名前のフィールドにマップされます

  • 部品のエクスポートを検出する: 指定した場所のサブフォルダにロードファイルの存在を検出し、検出されたすべてのロードファイルを順次アップロードします

この操作は、ドキュメントをRelativityにロードするときにRelativity`OverwriteModeプロパティをAppend`に設定します。
*リーガルエクスポート*操作を使用してロードファイルをエクスポートし、Relativityにアップロードできます。エクスポートパーツが利用可能になり次第、アップロードするという利点もあります。

最小限のサンプル`mapping.json`:

{
    "FieldList": [
        {
            "identifier": true,
            "loadfileColumn": "DOCID",
            "workspaceColumn": "Control Number"
        },
        {
            "loadfileColumn": "TEXTPATH",
            "workspaceColumn": "Extracted Text"
        },
        {
            "loadfileColumn": "ITEMPATH",
            "workspaceColumn": "File"
        },
        {
            "loadfileColumn": "BEGINGROUP",
            "workspaceColumn": "Group Identifier"
        }
    ]
}

2.14.16. 相対性メタデータオーバーレイ

この操作は、スコープクエリのNuixアイテムからメタデータをエクスポートし、Relativityにオーバーレイします。

次の設定が必要です。

  • フィールドマッピングファイル: Nuix メタデータ プロファイルを Relativity ワークスペース フィールドにマッピングする JSON ファイルへのパス。マッピング ファイルが提供されていない場合、ロードファイルのフィールドは Relativity ワークスペースの同じ名前のフィールドにマップされます

Relativity Loadfile Upload 操作でマッピング ファイルを作成する方法の詳細を参照するか、以下のサンプル マッピング ファイルを使用してください。
この操作は、メタデータをRelativityにロードするときにRelativity`OverwriteModeプロパティをOverlay`に設定します。

インデックスのないフィールドを使用してデータを Relativity にオーバーレイするには、マッピング ファイルで identifier プロパティを true に設定し、fieldId プロパティでそのフィールドの Artifact ID を指定します。

アーティファクト ID 1040313 を持つフィールド NuixGuid を含むワークスペースで、GUID に基づいてデータをオーバーレイするためのサンプル mapping.json:

{
    "FieldList": [
        {
            "loadfileColumn": "TEXTPATH",
            "workspaceColumn": "Extracted Text"
        },
        {
            "loadfileColumn": "GUID",
            "identifier": true,
            "fieldId": 1040313,
            "workspaceColumn": "NuixGuid"
        }
    ]
}

2.14.17. 相対性理論の画像オーバーレイ

この操作は、Opticonロードファイルから相対性理論に画像をオーバーレイします。

次の設定が必要です。

  • 識別子フィールド: 管理番号Document ID. などの識別子フィールドのアーティファクト ID。

識別子フィールドのアーティファクト ID を取得するには、Relativity でワークスペースを開き、[ワークスペース管理] → [フィールド] に移動して、識別子フィールド (例: 管理番号) をクリックします。次に、このフィールドのアーティファクト ID を取得するには、URL から値を抽出します。たとえば、次の URL のアーティファクト ID は 1003667: https://relativity.automate.lab/Relativity/RelativityInternal.aspx?AppID=1018179&ArtifactTypeID=14&ArtifactID=1003667&Mode=Forms&FormMode=view&LayoutID=null&SelectedTab=null です。
  • 最初のページからサフィックスを削除します: Opticon ロードファイルからドキュメント ID を推測するために、最初のページから接尾辞を削除します (例: _0001. )。

  • 部品のエクスポートを検出する: 指定した場所のサブフォルダにロードファイルの存在を検出し、検出されたすべてのロードファイルを順次アップロードします

この操作は、画像を相対性理論にロードするときに相対性理論`OverwriteModeプロパティをOverlay`に設定します。

2.14.18. 相対性CSVオーバーレイ

この操作は、指定されたオーバーレイファイルのメタデータをRelativityにオーバーレイします。

次の設定が必要です。

  • フィールドマッピングファイル: Nuix メタデータ プロファイルを Relativity ワークスペース フィールドにマッピングする JSON ファイルへのパス。マッピング ファイルが提供されていない場合、CSV ファイルの列は相対性理論ワークスペースの同じ名前のフィールドにマッピングされます

Relativity Loadfile Upload操作でマッピングファイルを作成する方法の詳細を参照してください。

2.14.19. 相対性プロパティクエリ

この操作は、相対性ワークスペースのプロパティを照会し、それらをワークフローのパラメーターとして割り当てます。

2.14.20. 相対性動的オブジェクトのロード

この操作は、次の設定を使用して、動的オブジェクト (RDO) を Relativity にロードします。

  • オブジェクト型識別子: オブジェクト タイプの 名前アーティファクトID、または お名前(いいね)

  • オブジェクトをワークスペースにロードする: オブジェクトをワークスペースにロードするかどうかを決定します

オプション*オブジェクトをワークスペースにロードする*を選択した場合、*相対性ワークスペース操作の設定*が必要です。
  • オブジェクト: ロードするオブジェクトのタブ区切りリスト

サンプル オブジェクト データ:

Article Title	Article Type	Article Date	Is Available
Star Wars	Wikipedia Article	2022-11-10T00:00:01	Yes
Globex	Review Article	2022-11-10T00:00:01	No
フィールド 名前 は必須であり、フィールドが存在しない場合、操作は失敗します。

オブジェクトの値を手動で指定するだけでなく、ユーザーは上記の例と同じ形式を使用して TSV ファイルからロードすることもできます。

オブジェクトをロードするとき、最初の行はオブジェクト タイプのフィールドを表し、その後の行は評価されて Relativity にロードされるオブジェクトです。

ユーザーがフィールド タイプのオブジェクトまたは選択肢を使用している場合は、列でオブジェクトまたは選択肢の名前を使用します。たとえば、タイプ 単一のオブジェクト のフィールド デパートメント とタイプ 単一の選択 のフィールド 部門グループ を指定します。

Name    Department  Department Group
John Doe    IT  Sales
Jane Doe    Marketing   Sales

ユーザーがフィールド タイプの複数オブジェクトまたは複数選択を使用している場合は、オブジェクトまたは選択肢の名前を使用し、各項目をコンマ , で区切ります。たとえば、タイプ 複数のオブジェクト のフィールド 趣味 とタイプ 複数の選択肢 のフィールド グループ がある場合:

Name    Hobbies  Groups
John Doe    Hockey,Golfing  Rotary Club,Robotics
Jane Doe    Golfing,Skiing,Reading   Book Club,Crossfit

2.14.21. ARM アーカイブの作成

この操作は、次の設定を使用して Relativity ARM アーカイブ ジョブを作成します。

  • アーカイブ ディレクトリ: アーカイブが保存されるパス (例: \\INSTANCE007\Arhives\TestWorkspaceArchive )

  • デフォルトのアーカイブ ディレクトリを使用: デフォルトのパスを使用してアーカイブを保存します

アーカイブ ディレクトリを選択するときは、有効な UNC パスを指定する必要があります (例: \\INSTANCE001\Arhives\NewArchive)。
  • 優先度:アーカイブジョブの実行優先度:普通

  • アーカイブが完了するのを待ちます:アーカイブジョブが完了するまで待ちます

  • ロック UI ジョブ アクション: UI で通常使用できるジョブ アクションをユーザーに表示するかどうかを決定します

  • ジョブ作成者に通知: メール通知をジョブ作成者に送信するかどうかを決定します

  • Job Executor に通知する: ジョブ実行者にメール通知を送信するかどうかを決定します

  • データベースのバックアップを含める: データベースのバックアップをアーカイブに含めます

  • dtSearch を含める: アーカイブに dtSearch インデックスを含めます。

  • 概念分析を含める: アーカイブに概念分析インデックスを含めます.

  • 構造化分析を含める: 構造化された分析インデックスをアーカイブに含めます

  • データ グリッドを含める: データグリッドアプリのデータをアーカイブに収録

  • リポジトリ ファイルを含める: アーカイブ内のファイル フィールドからのファイルを含め、ワークスペース リポジトリに含まれるすべてのファイルを含めます。

  • リンクされたファイルを含める: ワークスペースファイルリポジトリに存在しないリンクファイルをすべてアーカイブに含めます

  • 欠落ファイルの動作: アーカイブ処理中に欠落ファイルが検出された場合、天気を*ファイルをスキップ*または*ジョブを停止*で示します。

欠落ファイルの動作ジョブを停止 に設定すると、ファイルが見つからない場合にアーカイブ ジョブが停止または失敗します。
  • 処理を含める:加工申請データをアーカイブに収録

  • 処理ファイルを含める: 処理によって発見されたすべてのファイルとコンテナをアーカイブに含めます.

オプション 処理ファイルを含める を選択すると、ファイルはフォルダ Invariant の下のアーカイブ ディレクトリに配置されます。
  • 欠落処理ファイルの動作:アーカイブ処理中に処理ファイルの欠落が検出された場合、*ファイルをスキップ*または*ジョブを停止*のいずれかを示します。

  • 拡張ワークスペース データを含める: 拡張されたワークスペース情報をアーカイブに含めます.

拡張ワークスペース データには、インストールされたアプリケーション、リンクされた相対性スクリプト、非アプリケーション イベント ハンドラが含まれます。
  • アプリケーション エラーのエクスポート動作: エクスポート中にエラーが発生したアプリケーションについて、アプリケーションをスキップ または ジョブを停止 のどちらにするかを示します。

この操作を行うには、Relativity インスタンスに ARM アプリケーションがインストールされている必要があります。

2.14.22. 相対性 ARM リストアの作成

この操作は、次の設定を使用して ARM 復元ジョブを作成します。

  • アーカイブ パス: 復元する ARM アーカイブのパス (例: \\INSTANCE007\Arhives\TestWorkspaceRestore )

提供される アーカイブ パス は、別の ARM ジョブで使用されていてはなりません。
  • 優先度: リストアジョブの実行優先度: , 普通, .

  • ロック UI ジョブ アクション: UI で通常使用できるジョブ アクションをユーザーに表示するかどうかを決定します

  • ジョブ作成者に通知: メール通知をジョブ作成者に送信するかどうかを決定します

  • Job Executor に通知する: ジョブ実行者にメール通知を送信するかどうかを決定します

  • 物質識別子: 復元する案件の 名前アーティファクトIDお名前(いいね)

ワークフローに先行する*相対性理論を設定する*操作がある場合は*相対性理論を設定する*操作の案件、*物質識別子*フィールドに値がある場合は*物質識別子*フィールドに設定された案件が使用されます。
  • リソースプール識別子: ワークスペースを復元するリソース プール。この設定が定義されていない場合は、相対性環境から最初に使用可能なリソース プールが選択されます

  • データベース サーバー識別子: ワークスペースを復元するデータベース サーバー。この設定が定義されていない場合は、Relativity 環境で最初に使用可能なデータベース サーバーが選択されます

  • キャッシュの場所の識別子: ワークスペースを復元するキャッシュの場所。この設定が定義されていない場合は、相対性環境から最初に使用可能なキャッシュの場所が選択されます

  • ファイルリポジトリ識別子: ワークスペースを復元するファイル リポジトリ。この設定が定義されていない場合は、相対性環境から最初に使用可能なファイル リポジトリが選択されます

    • ファイルをアーカイブ リンクとして参照する: ファイルをワークスペース リポジトリにコピーするのではなく、アーカイブ ディレクトリに残し、ワークスペース データベースから参照する必要があるかどうかを決定します。

    • リポジトリ ファイル パスの更新: 新しい場所を反映するために、リポジトリ ファイルの場所を更新する必要があるかどうかを決定します。

    • リンクされたファイル パスを更新する: リポジトリ以外のファイルの場所を更新して、新しい場所を反映するかどうかを決定します

    • ユーザーの自動マップ: アーカイブ ユーザーをメール アドレスで自動マッピングするかどうかを決定します

    • 自動マップ グループ: アーカイブ グループを名前で自動マッピングするかどうかを決定します

    • 構造化分析サーバー: 構造化分析サーバーの 名前アーティファクトID、または お名前(いいね)。このフィールドは、ユーザーが復元するアーカイブに構造化分析データが含まれている場合にのみ必要です。

    • 概念分析サーバー: 概念分析サーバーの 名前アーティファクトID、または お名前(いいね) このフィールドは、ユーザーが復元しているアーカイブに概念分析データが含まれている場合にのみ必要です。

    • dtSearch ロケーション識別子: dtSearch の場所の 名前アーティファクトID、または お名前(いいね)。このフィールドは、ユーザーが復元するアーカイブに dtSearch インデックスが含まれている場合にのみ必要です。

    • 既存のターゲット データベース: アーカイブにデータベースのバックアップファイルがない場合の対象データベース

この操作を行うには、Relativity インスタンスに ARM アプリケーションがインストールされている必要があります。

2.14.23. 相対性文書のリスト

この操作は、Relativity Workspaceに存在するすべてのドキュメントをリストします。

次の設定を使用できます。

  • スコープクエリ: Relativity ワークスペースの DocID を、このスコープの Nuix ケースのドキュメントと相互参照します。

  • 一致したアイテムにタグを付ける: Relativity ワークスペースのドキュメントと同じ DocID を持つ Nuix ケースのスコープ内のドキュメントに割り当てるタグ.

  • DocIDをエクスポート: Relativity ワークスペースから DocID のリストを書き込むファイルのパスと名前。 1 行に 1 つの DocID が含まれます

2.14.24. 相対性理論のスクリプトを追加する

この操作では、次の設定を使用して、指定したスクリプトをワークスペースに追加します。

  • スクリプト識別子: 相対性ワークスペースに追加するスクリプト

  • アプリケーション識別子: スクリプトが実行されるアプリケーション。この設定はオプションです

相対性理論ワークスペースにスクリプトを追加するには、まず*相対性理論ライブラリ*でスクリプトを定義します。 相対性理論ライブラリ*は相対性理論のホームページの*アプリケーションとスクリプト→*相対性理論ライブラリ*の下にあります。

2.14.25. 相対性理論実行スクリプト

この操作は、相対性ワークスペースまたは管理ワークスペースでスクリプトを実行します。

必要に応じて、入力値をスクリプトに提供できます。必要な入力 ID と許可される値を特定するには、入力なしでスクリプトを実行し、実行ログを調べます。

スクリプトが完了すると、最終的なエラーはパラメーター名 {last_relativity_script_error} に格納されます。

スクリプトの出力は、次のタイプのファイルにエクスポートできます。

  • CSV: 拡張子`.csv` を使用してください

  • PDF: 拡張子`.pdf` を使用してください

  • XLSX: 拡張子 .xlsx を使用します。他の形式が一致しない場合、エクスポートではデフォルトでこのオプションが使用され、このオプションが使用されます。

2.14.26. 相対性理論の削除

この操作により、指定されたスクリプトが存在する場合は削除されます。

2.14.27. 相対性理論のdtSearchインデックスを管理する

この操作は、次の設定を使用して、dtSearch インデックスでインデックス構築を実行します。

  • dtSearchインデックス識別子: アクションを実行する dtSearch インデックス。

  • インデックスアクション: インデックスに対して実行されるインデックス構築操作。構築操作は次のいずれかです:

    • フルビルド

    • インクリメンタルビルド

    • インデックスを圧縮する

    • インデックスをアクティブ化

    • インデックスを非アクティブ化

  • アクションの完了を待つ: ビルド操作が完了するのを待ってから次の操作に移ります

2.14.28. 相対性検索語レポートの実行

この操作では、次の設定を使用して、相対性インスタンスで検索語レポートを実行します。

  • 検索用語レポート識別子: 実行する検索語レポート

  • レポート実行タイプ: 実行するレポート実行タイプ、レポート実行タイプは次のいずれかです:

    • すべての用語を実行

    • 保留中の条件の実行

  • レポート結果の場所: 任意、レポートのcsv結果をエクスポートする場所

この操作が完了すると、結果がパラメーター {relativity_search_term_results_json} に json オブジェクトとして格納されます。結果は次の形式になります。

{
    "results": [
        {
            "Name": "apples",
            "Documents with hits": "16",
            "Documents with hits, including group": "0",
            "Unique hits": "",
            "Last run time": "2/10/2023 4:08 AM"
        },
        {
            "Name": "automate",
            "Documents with hits": "72",
            "Documents with hits, including group": "0",
            "Unique hits": "",
            "Last run time": "2/10/2023 4:08 AM"
        },
        {
            "Name": "sensitive",
            "Documents with hits": "2",
            "Documents with hits, including group": "0",
            "Unique hits": "",
            "Last run time": "2/10/2023 4:08 AM"
        }
    ]
}

検索語レポートの結果は結果配列に格納され、オブジェクト内のプロパティは検索語レポート結果のビューに対応するフィールドです。

パラメータ {relativity_search_term_results_json} をスクリプトで使用して、検索用語レポートの結果にロジックを追加できます。たとえば、次のスクリプトは、少なくとも 1 回表示された結果のみを出力します。

# Example script only showing terms with hits
results_object = parameters.getJsonObject("{relativity_search_term_results_json}")
results_array = results_object["results"]

# Header which indicates how many times it was seen
hits_header = "Documents with hits"

# Only print a result if it was seen at least one time
for result in results_array:
	if int(result[hits_header]) > 0:
		for key in result.keySet():
			print(key + ": " + result[key])

		# Separate results
		print("\n")
報告

このオプションは、テンプレート ファイルに基づいて、Excel 形式で検索用語レポートを生成します。レポートは、テンプレートの _REL_RUN_SEARCH_TERMS_ ワークシートを使用します。

カスタムテンプレートの使用については、Processing Reportを参照してください。

2.14.29. 保存された相対性検索のエクスポート

この操作では、次の設定を使用して、保存された検索を Automate Relativity Query Language 形式に変換し、保存された検索を csv ファイルにエクスポートします。

  • 保存された検索のエクスポート場所: csv結果の出力先

この操作が完了すると、csv ファイルの場所がパラメーター {relativity_saved_searches_file} に格納されます。

報告

このオプションは、テンプレート ファイルに基づいて、保存された検索レポートを Excel 形式で生成します。レポートは、テンプレートの _REL_EXPORT_SAVED_SEARCH_ ワークシートを使用します。

カスタムテンプレートの使用については、Processing Reportを参照してください。

2.14.30. 相対性保存検索の作成

この操作では、次の設定を使用して、Automate Relativity Query Language を使用して保存済み検索を作成します。

  • 保存された検索

    • フォルダ: フォルダのパス、存在しない場合は作成します

    • 名前: クエリの名前

    • クエリ: 保存された検索に変換される相対性クエリ言語の文字列

    • 範囲: 保存した検索の範囲

    • 田畑: 保存された検索のフィールド。フィールドは , カンマ で区切られています。

    • 並べ替え: 保存された検索の並べ替えフィールド、並べ替えフィールドは , カンマで区切られ、角括弧 [] 内に並べ替え方向が含まれます。たとえば、ユーザーがアーティファクト ID の昇順で並べ替えたい場合、ユーザーは並べ替え列に Artifact ID [Ascending] を指定します。ユーザーは、ソート方向 Ascending または Descending の 2 つの可能な値のみを指定できます。

保存された検索の値を手動で提供することに加えて、ユーザーは次のように CSV または TSV ファイルからロードすることもできます。

Folder,Name,Query,Scope,Scope Folders,Fields,Sorting
Admin Searches,Produced Documents,[Bates Beg] is_set,WORKSPACE,,"Edit,File Icon,Control Number,Bates Beg,Bates End",Bates Beg [Ascending]
Admin Searches,Extracted Text Only,[Extracted Text] is_set,FOLDERS,Temp\\Tes,Extracted Text,

保存された検索は、保存された検索ファイル オプションを使用して、ワークフローの実行中にファイルから読み込むこともできます。

2.14.31. Relativityクエリ言語の自動化

Automate Relativity Query Language は、Relativity の保存済み検索を作成するために使用されるカスタム言語です。この言語は、Relativity からの保存済み検索作成フォームを取得し、それをテキストベースのクエリ言語に変換して、ワークフローで保存済み検索の作成を自動化できるようにします。

この言語は一連の式で構成されており、各式にはドキュメント フィールド名、演算子、および値が含まれています。次に、各式は、2 つの式の間の論理演算子として機能する そして または また で結合されます。

式をグループ化して、括弧内に 1 つ以上の式を含む論理グループを形成することもできます。論理グループ内の式はまとめて評価され、論理グループの結果は内部で評価された式になります。式をネストできる回数に制限はありません。

ドキュメント フィールド名 ドキュメント フィールド名は相対性理論のドキュメント フィールドに対応します。ドキュメント

フィールド名を式で宣言するには、フィールド名を角括弧で囲みます。たとえば、ユーザーがフィールド名 管理番号 を使用したい場合、式では [管理番号] として宣言されます。

保存された検索 または 索引検索 を式のドキュメント フィールドとして使用する場合、これらは次のように宣言されます。保存された検索の場合は [保存された検索]、インデックス検索の場合は 【索引検索】 です。
演算子 式の演算子は、値がどのように評価されるかを定義します。値を期待する 二項演算子 と値を必要としない 単項演算子 の 2

種類の演算子があります。式で演算子を宣言するには、ユーザーは最初にドキュメント フィールド名を宣言してから、次の表に示す演算子のいずれかを指定する必要があります。

オペレーター

is

[Control Number] is "Example"

is_not

[Control Number] is_not "Example"

is_set

[Artifact ID] is_set

is_not_set

[Artifact ID] is_not_set

is_logged_in

[Created By] is_logged_in

is_not_logged_in

[Created By] is_not_logged_in

is_like

[Folder Name] is_like "FolderA"

is_not_like

[Control Folder Name] is_not_like "FolderA"

is_less_than

[Attachment Count] is_less_than "3"

is_less_than_or_equal_to

[Attachment Count] is_less_than_or_equal_to "12"

is_greater_than

[Attachment Count] is_greater_than "9"

is_greater_than_or_equal_to

[Attachment Count] is_greater_than_or_equal_to "5"

starts_with

[Email Subject] starts_with "Confidential"

does_not_start_with

[Email Subject] does_not_start_with "Redacted"

ends_with

[Title] ends_with "signing"

does_not_end_with

[Title] does_not_end_with "signing"

contains

[Email From] contains "@example.com"

does_not_contain

[Email From] does_not_contain "@example.com"

is_any_of_these

[Custodian] is_any_of_these [1023221, 2254568]

is_none_of_these

[Custodian] is_none_of_these [1023221, 2254568]

is_all_of_these

[Submitted By] is_all_of_these [1024881]

is_not_all_of_these

[Submitted By] is_not_all_of_these [1024881, 102568]

is_in

[Folder] is_in [1025681, 1024881, 1032568]

is_not_in

[Folder] is_not_in [1025681, 1024881, 1032568]

is_before

[Sort Date] is_before 2022-04-05

is_before_or_on

[Sort Date] is_before_or_on 2022-04-05

is_after

[Date Last Modified] is_after 2021-12-09T15:36:00

is_after_or_on

[Date Last Modified] is_after_or_on 2021-12-09T15:36:00

is_between

[Date Added] is_between 2019-01-01 - 2023-01-01

is_not_between

[Date Added] is_not_between 2019-01-01 - 2023-01-01

値 式の値は、ユーザーがドキュメント フィールドに期待する値を定義します。式で値を宣言するには、ドキュメント

フィールド名と演算子を宣言する必要があります。その後、ユーザーはテキストまたは数値を二重引用符で囲んで値を指定できます。例えば`[102889, 1025568]`。角括弧内の整数は、相対性理論のオブジェクトのアーティファクト ID に対応しています。

値は日付として宣言することもできます。日付値を二重引用符や角括弧で囲む必要はありません。日付値を宣言する場合、特定の演算子のみを使用できます。日付値をサポートする演算子は、isis_notis_inis_not_inis_beforeis_before_or_onis_afteris_after_or_onis_betweenis_not_between です。

演算子 is_between および is_not_between は、- で区切られた 2 つの日付または日時の値のみを取ることができます。例: 2019-01-01 - 2023-01-01 または 2019-01-01T00:00:00 - 2022-12-31T23:59:59

日付値は、次のいずれかの形式にすることができます。

  • 日付: 日付の形式は、年 (4 桁) - 月 (2 桁) - 日 (2 桁) です。例えば`2023-04-13`

  • 日付時刻:日付時刻の形式は、年 (4 桁) - 月 (2 桁) - 日 (2 桁) T 時 (2 桁) : 分 (2 桁) : 秒 (2 桁) オプションでユーザーが宣言することもできます`.` に続いて 1 ~ 9 桁のミリ秒。例: 2019-05-10T05:00:13 または 2019-05-10T05:00:13.8754

  • : month の形式は、大文字の月の名前です。例: March または July

  • 今週: 今週の形式は小文字の単語です。例: this week

  • 今月: 今月の書式は小文字です。たとえば、this month

  • 次の週: 来週のフォーマットは小文字の単語です。例: next week

  • 先週: 先週の形式は小文字の単語です。例: last week

  • 過去 7 日間: 過去 7 日間の形式は小文字です。たとえば、last 7 days

  • 過去 30 日間: 過去 30 日間の形式は小文字です。たとえば、last 30 days

保存された検索クエリの例

2 つの日付の間の添付ファイル付きの電子メール:

[Email Subject] is_set and ([Number of Attachments] is_not "0" and [Date Sent] is_between 2021-08-04 - 2023-02-28T23:59:59.997)

ファイルサイズでソートされた、制作エラーのある制作済みドキュメント:

[Bates Beg] is_set and [Production Errors] is "true"

テキストが抽出されていないドキュメント:

[Extracted Text] is_not_set or [Extracted Text Size] is "0"

2.14.32. クエリ相対性ワークスペースの上書きされたアクセス許可

この操作は、次の設定を使用して、オーバーライドされた継承されたアクセス許可をエクスポートします。

  • パーミッション出力ファイル:パーミッションのJSONファイルを書き出す場所

  • オブジェクト スコープ

    • オブジェクトタイプ: オブジェクトのタイプ (例: フォルダ )

    • オブジェクト名: オプションで、演出 などのオブジェクトの名前。特定のタイプのすべてのオブジェクトを照会するには、名前フィールドを空白のままにします。

オブジェクト タイプの値を手動で指定するだけでなく、ユーザーは次のように CSV または TSV ファイルから読み込むこともできます。

Folder  Admin
Folder  Staging
View

オブジェクト スコープは、オブジェクト スコープ ファイル オプションを使用して、ワークフローの実行中にファイルから読み込むこともできます。

2.14.33. 相対性ワークスペースの上書きされたアクセス許可を適用する

運用ワークスペースでこの操作を実行する前に、同じテンプレートから作成されたテスト ワークスペースでこの操作を実行するか、運用ワークスペースのバックアップを実行して、目的の結果が得られることを確認してください。

この操作は、次の設定を使用してオーバーライドされた継承されたアクセス許可を適用します。

  • オブジェクトを一致させる

    • アーティファクト ID と名前: ターゲット ワークスペースのオブジェクトは、パーミッション ファイルのオブジェクトと同じ名前とアーティファクト ID を持っている必要があります。

    • 名前: ターゲット ワークスペースのオブジェクトは、アクセス許可ファイルのオブジェクトと同じ名前にする必要があります

  • 新しいオブジェクトの動作: オブジェクトがターゲット ワークスペースで識別されたが、オブジェクトがアクセス許可ファイルに存在しない場合に実行するアクション:

    • アクセス権ファイルに存在しないオブジェクトのアクセス権を変更しないでください

    • アクセス権ファイルに存在しないオブジェクトのアクセス権をリセットする

  • オブジェクトをスキップ: (オプション) テーブルで定義されたオブジェクトへのアクセス許可の適用をスキップします

    • オブジェクトタイプ: ビュー などのオブジェクト タイプ名

    • オブジェクト名: 物の名前

  • 上書きされた権限ファイル: クエリ相対性ワークスペースの上書きされたアクセス許可 操作によって作成された権限ファイル。

  • 上書きされたパーミッション JSON: オプションで、権限ファイルの内容

報告

このオプションは、テンプレート ファイルに基づいて、上書きされた権限レポートを Excel 形式で生成します。レポートは、テンプレートの _REL_OVERWRITTEN_PERMISSIONS_ ワークシートを使用します。

カスタムテンプレートの使用については、Processing Reportを参照してください。

2.14.34. Relativity API を呼び出す

この操作は、次の設定を使用して、Configure Relativity Connection からの現在の構成を使用して Relativity への API 呼び出しを行います。

  • 動詞: GETPOST. などの HTTP 動詞。

  • 終点: Relativity APIのエンドポイント

  • パラメーター: オプションの URL パラメータ。

  • : JSONリクエスト

API 呼び出しが完了すると、次のパラメーターが入力されます。

  • {relativity_call_api_response_code}: HTTP 応答コード。

  • {relativity_call_api_response_headers}: JSON エンコードされた応答ヘッダー。

  • {relativity_call_api_response_body}: レスポンスボディ。

この操作は、指定された保存済み検索またはすべての保存済み検索をワークスペースから削除します。

2.14.36. 相対性イメージング セットの実行

この操作は、次の設定を使用して、指定されたイメージング セットを実行します。

  • イメージング セット識別子: 画像セットの 名前アーティファクトID、または お名前(いいね)

  • QC レビュー用に画像を非表示にする: 有効にすると、QC レビュー プロセスが完了するまで、ユーザーは画像を閲覧できなくなります

  • 完了を待ちます:イメージングセットの実行が終了するまで待ちます

2.14.37. 相対性指数の削除

この操作は、指定されたインデックスが存在する場合、それを削除します。

2.14.38. 相対性分析インデックスの作成

この操作では、次の設定を使用して分析インデックスを作成します。

  • 名前: 分析インデックスの名前

  • 索引タイプ: インデックスのタイプ、概念的な または 分類

  • 保存された検索識別子: 保存済み検索の 名前アーティファクトID、または お名前(いいね)

  • 分析サーバー識別子: 分析サーバーの 名前アーティファクトID、または お名前(いいね)

  • 注文: Relativity 内のドロップダウンに表示されるインデックスの順序。たとえば、値を 1 に設定すると、すべてのドロップダウンでインデックスが最初に表示されます

  • 電子メール通知受信者ファイル: (オプション) インデックスの作成および作成中に通知される電子メール受信者のリスト。例:

Email Notification Recipient
usera@example.com
userb@example.com
userc@example.com

上記の設定に加えて、概念分析インデックスには次の詳細オプションがあります。

  • 高度なオプション

    • コンセプトストップワードファイル: (オプション) インデックスから除外する単語を含むファイル

    • 索引ステップを完了まで続行: (オプション) ステップを開始した後、分析インデックスをアクティブ化するために必要なすべてのステップを自動的に完了するかどうかを示します

    • 寸法: (オプション) インデックス作成時にドキュメントがマッピングされる概念空間の次元数

    • メール ヘッダー フィルタを有効にする: (オプション) 一般的なヘッダー フィールド (ToFromDate など) と reply-indicator 行を削除します

    • トレーニング セットの最適化: (オプション) トレーニング セットの保存された検索から概念的に関連するドキュメントのみを選択するかどうかを示します

    • 作成中にエラーが発生したドキュメントを削除する: (オプション) 以前の作成でエラーが発生した場合、ドキュメントを作成から削除します

    • 英語の署名とフッターを削除する: (オプション) 英語のメールで署名とフッターを削除するかどうかを示します

    • 繰り返しコンテンツ フィルタ ファイル: (オプション) インデックスに関連付けられた繰り返しコンテンツ フィルターを含むファイル

    • トレーニングセット: (オプション) トレーニング用に保存された検索の 名前アーティファクトID、または お名前(いいね)

コンセプトストップワードファイル:

Stop Words
and
a
can

繰り返しコンテンツ フィルタ ファイル、フィルターは名前による識別子です。

Content Filters
Credit Card Regex Filter
Email Address Filter

2.14.39. 相対性保存検索の実行

この操作は、次の設定を使用して Relativity インスタンスで保存された検索を実行し、項目数を返します。

  • 実行オプション: ユーザーが保存した検索を取得して実行する方法:

    • ワークスペースに保存されたすべての検索: ワークスペースに保存されているすべての検索を実行します

    • 検索コンテナーの下にあるすべての保存済み検索: 指定した検索コンテナの下に保存されているすべての検索を実行します

    • 単一の保存済み検索: 指定した保存済み検索を実行します

  • 保存された検索識別子: 保存済み検索の 名前アーティファクトID、または お名前(いいね)

  • コンテナ識別子の検索: 検索コンテナーの 名前アーティファクトID、または お名前(いいね)

この操作が完了すると、結果がパラメーター {relativity_run_saved_search_results_json} に json オブジェクトとして格納されます。結果は次の形式になります。

{
    "results": [
        {
            "Name": "All Documents",
            "Query": "[Artifact ID] is_set",
            "Hits": 163,
            "Folder": "Admin Searches\\Tests"
        },
        {
            "Name": "Extracted Text Only",
            "Query": "[Extracted Text] is_set",
            "Hits": 113,
            "Folder": ""
        },
        {
            "Name": "Produced Documents",
            "Query": "[Control Number] is_set and [Document] is \"true\"",
            "Hits": 65,
            "Folder": "Admin Searches"
        }
    ]
}

実行された保存済み検索の結果は結果配列に格納されます。オブジェクト内のプロパティは次のとおりです。

  • 名前: 保存した検索の名前

  • アーティファクトID: 保存された検索のアーティファクト ID

  • ヒット数: 保存した検索を実行したときに返されるドキュメントの量

パラメータ {relativity_run_saved_search_results_json} をスクリプトで使用して、保存された検索結果の結果にロジックを追加できます。たとえば、次のスクリプトは、少なくとも 1 つのヒットがある結果のみを出力します。

# Example script only showing saved searches with atleast one document
results_object = parameters.getJsonObject("{relativity_run_saved_search_results_json}")
results_array = results_object["results"]

# Only print a result if it has atleast one document
for result in results_array:
	if int(result["Hits"]) > 0:
		print("Folder: " + result["Folder"])
		print("Name: " + result["Name"])
		print("Query: " + result["Query"])
		print("Hits: " + str(result["Hits"]))

	# Separate results
	print("\n")
報告

このオプションは、テンプレート ファイルに基づいて、保存された検索レポートを Excel 形式で生成します。レポートは、テンプレートの _REL_RUN_SAVED_SEARCH_ ワークシートを使用します。

カスタムテンプレートの使用については、Processing Reportを参照してください。

2.14.40. 相対性分析インデックスの管理

この操作では、次の設定を使用して、指定された分析インデックスに対してインデックス アクションを実行します。

  • 分析インデックス識別子: 分析インデックスの 名前アーティファクトID名前(正規表現)

  • 分析インデックス タイプ: 分析インデックスのタイプ 概念的な または 分類

  • 既存の分析ジョブのアクション:既存の分析インデックスジョブが見つかった場合の動作

    • 同じインデックスに対して別の分析インデックス ジョブが進行中の場合は、そのジョブの実行をスキップします

    • 現在実行中の分析ジョブ アクションを停止し、新しいジョブを開始します

  • インデックスアクション: 分析インデックスに対して実行するアクション

    • 全人口: フルインデックス母集団を実行します

    • 人口の増加: 人口増加を実行します

    • ビルド インデックス: フルインデックスビルドを実行します

    • 再試行エラー: 作成中に発生したエラーを再試行します

    • エラーのあるドキュメントを削除する: エラーが発生したドキュメントを削除します

    • 有効化: クエリ用のインデックスをアクティブ化します

    • 無効化: インデックスのクエリを無効にします

  • 完了を待ちます: インデックスジョブが完了するのを待ちます

分析インデックスに対してインデックス アクション ビルド インデックス を使用する場合、分析インデックスを非アクティブ化する必要があります。

2.14.41. Relativity OCR セットを実行する

この操作では、次の設定を使用して、指定された OCR セットを実行します。

  • OCRセット識別子: OCR セットの 名前アーティファクトID、または お名前(いいね)

  • 既存の OCR セット ジョブ アクション: 既存の OCR セットジョブが実行中の場合に実行するアクション

    • 停止: 現在実行中のOCRセットジョブを停止し、新しいジョブを開始します

    • スキップ: 同じセットに対して別の OCR セットジョブが進行中の場合、そのジョブの実行をスキップします

  • 完了を待ちます: OCRセットの実行が完了するまで待ちます

2.14.42. 相対性メタデータのエクスポート

この操作では、次の設定を使用して、指定されたメタデータ タイプをエクスポートします。

  • メタデータの種類: エクスポートするメタデータのタイプ (ビュー または 保存された検索 )

  • メタデータ識別子: メタデータの 名前アーティファクトIDお名前(いいね)

  • メタデータ タイプの場所: メタデータのエクスポート元の場所 (現在のワークスペース または 管理者ワークスペース )

  • カスタム条件: メタデータをエクスポートするときにユーザーがより詳細なクエリを定義できるようにします。詳細については、「https://platform.relativity.com/RelativityOne/Content/REST_API/リソース_Tasks/Querying_ために_resources.htm#_Syntax_ために_query_conditions」を参照してください。

ビューの出力は、次のタイプのファイルにエクスポートできます。

  • CSV: 拡張子`.csv` を使用してください

  • PDF: 拡張子`.pdf` を使用してください

  • XLSX: 拡張子 .xlsx を使用します。他の形式が一致しない場合、エクスポートではデフォルトでこのオプションが使用され、このオプションが使用されます。

2.14.43. Relativity プロダクション セットの作成

この操作では、次の設定を使用してプロダクション セットを作成します。

  • 名前:制作セットの名前

  • 本番データソース: 制作用データソース

    • データソース名: データソースの名前

    • データソースの種類: 生成するデータのタイプ。次のいずれか 画像原住民画像とネイティブ

    • 保存された検索識別子: 保存済み検索の 名前アーティファクトID、または お名前(いいね)

    • 画像プレースホルダ: 画像プレースホルダーを使用するときに実行するアクション (画像プレースホルダーは絶対に使用しないでください常に画像プレースホルダーを使用する、または 画像が存在しない場合 )

    • プレースホルダー識別子: プレースホルダーの 名前アーティファクトID、または お名前(いいね)

    • マークアップセット識別子: マークアップ セットの 名前アーティファクトID、または お名前(いいね)

    • 書き込み編集: 画像系作品制作時の焼き消し日和

  • テンプレートからプロダクションセットを作成する: 既存の制作セットの設定を利用して、新しい制作セットを作成します

    • プロダクション セット テンプレートの識別子: 制作セットテンプレートの*名前*、アーティファクトID、または*お名前(いいね)*

    • 本番セットは別のワークスペースに存在します: このオプションを有効にすると、ユーザーは任意のワークスペースからプロダクション セットのテンプレート設定をコピーできるようになります

    • ワークスペース識別子: テンプレート制作セットワークスペースの*名前*、アーティファクトID、または*お名前(いいね)*

  • 設定から本番セットを作成する オペレーションの設定を使用して新しい作品を作成します

    • ナンバリングタイプ:書類ナンバリングタイプ

    • プレフィックス: 通し番号の前に表示される文字列

    • サフィックス: (オプション) 通し番号の後に表示される文字列

    • 開始番号: 初期の開始打数

    • ナンバリング桁数: ドキュメントレベルの番号付けに使用される桁数を表す数値。範囲は 1 ~ 7 です

    • ブランドフォント: ブランディングに使用されるフォントの種類

    • ブランドのフォントサイズ: ブランディングに使用するフォントのサイズ

    • スケールブランディングフォント: ブランドフォントを拡大縮小します

    • ラップブランドフォント: ブランドテキストが隣接するヘッダーまたはフッターと重なった場合に折り返されます

2.14.44. Relativity プロダクション セットを実行する

この操作では、次の設定を使用して実稼働セットを実行します。

  • プロダクションセット識別子: 制作セットの*名前*、アーティファクトID、または*お名前(いいね)*

  • プロダクションセットアクション: 撮影現場で行うアクション

    • ステージ: 制作セットをステージングして資料制作の準備をします

    • 走る: 撮影現場での仕事を開始し、舞台資料を作成します

    • ステージとラン: ドキュメント作成の準備として制作セットをステージングし、すぐに制作セットでジョブを開始します

  • 完了を待ちます: 生産セットが完了するのを待ってから次の操作に進みます

2.15. セマンティック検索

これらの操作により、セマンティック エンジンが構成され、類似性検索が実行されます。

2.15.1. セマンティック検索エンジンを構成する

この操作は、セマンティック検索エンジンの構成を設定します。この操作を有効にするには、データがロードまたは再ロードされる前にワークフローで使用する必要があります。

次の設定を構成できます。

  • セマンティックサービスを使用する: サードパーティサービスで定義されたセマンティックサービスを使用するには、このオプションを選択します。または、組み込みのセマンティックエンジンが使用されます。

  • セマンティックサービスID: 使用するセマンティックサービスのID。

  • テキスト埋め込みモデル: テキスト セマンティック インデックスの構築に使用するモデル (例: intfloat/multilingual-e5-small)。値が指定されていない場合、 アイテム テキストはセマンティック インデックスの構築に使用されません。

  • 画像埋め込みモデル: 画像のセマンティック インデックスの構築に使用するモデル (例: openai/clip-vit-large-patch14)。値が指定されていない場合、 アイテム画像はセマンティック インデックスの構築に使用されません。

2.15.2. 意味的に類似したアイテムを検索

この操作は、スコープと意味的に類似する項目を検索し、タグ付けします。

2.16. SQL

これらの操作により、Nuix ケースと SQL サーバーの間でデータが転送され、任意の SQL コマンドを実行できるようになります。

2.16.1. SQLコマンド

この操作はSQLデータベースに接続し、次のオプションを使用してSQLコマンドを実行します。

  • SQLプラットフォーム:コマンドが実行されるSQLプラットフォーム、Microsoft SQL(JTDSまたはネイティブドライバーを使用)および*PostgreSQL*。

  • SQLサーバー名:SQLホスト名。たとえば、 localhost

  • :SQLホストポート。たとえば、Microsoft SQLの場合は`1433、PostgreSQLの場合は5432`。

  • 暗号化:暗号化されたJTDS接続の要件:

    • 無効:暗号化を使用しません

    • リクエスト済み:サーバーでサポートされている場合、暗号化された接続を使用しようとします

    • 必須:暗号化された接続を使用する必要があります。

    • 署名済み:Java TrustStoreの証明書で署名された暗号化された接続を使用する必要があります。

  • インスタンス:Microsoft SQLインスタンス、たとえば`SQLEXPRESS`、またはデフォルトのインスタンスの場合は空白。

  • ドメイン:Microsoft SQL認証の場合はWindowsドメイン、統合認証の場合は空白です。

  • ユーザー名:データベースへの接続に使用するユーザー名、または統合認証の場合は空白。

  • パスワード:データベースへの接続に使用するパスワード、または統合認証の場合は空白。

  • データベース:SQLコマンドを実行するSQLデータベース。

SQLプラットフォーム*PostgreSQL*を使用してデータベースが指定されていない場合、操作は`postgres`データベースへの接続を試みます。また、*PostgreSQL*でデータベースを作成する場合、同じクエリでデータベースを変更することはできません。作成したデータベースを変更するには、別のSQLコマンド操作が必要です。
  • SQLクエリ:実行するSQLクエリ。

この操作を使用して、他のSQL操作を実行するために必要なデータベースを作成できます。

データベースを作成するサンプルSQLクエリ:

CREATE DATABASE automate;

2.16.2. SQLへのメタデータ

この操作は、スコープクエリに一致するアイテムのメタデータを*Microsoft SQL*(JTDSまたはネイティブドライバーを使用)または*PostgreSQL*にエクスポートします。

指定されたテーブルが存在しない場合、この操作は、選択されたメタデータプロファイルのメタデータフィールドから各列タイプを決定し、検出された列タイプでSQLテーブルを作成しようとします。

SQLテーブルを作成するとき、メタデータフィールドタイプを判別できない場合は、タイプ`NVARCHAR(MAX)がinで使用され、タイプTEXT`が使用されます。

2.16.3. SQLからのクエリ

この操作は、SQLデータベースからデータをクエリし、カスタムメタデータをスコープ内のアイテムに追加し、クエリされたデータを`CSV`ファイルにエクスポートします。

最初のテーブル列名は`GUIDまたはDocID`のいずれかである必要があります。後続の列は、割り当てられるメタデータフィールドに対応しています。

列のエイリアスは、名前が`GUIDまたはDocID`の列の代わりに使用できます。

列のエイリアスを使用したサンプル*Microsoft SQL*クエリ:

SELECT [Header One] as 'GUID'
      ,[Header Two] as 'File Type'
      ,[Header Two] as 'File Path'
  FROM [TEST TABLE]

列のエイリアスを使用したサンプル*PostgreSQL*クエリ:

SELECT "Header One" as "GUID"
      ,"Header Two" as "File Type"
      ,"Header Two" as "File Path"
  FROM test_table

2.17. ベリトーン

これらの操作は、Veritone でアクションを実行します。

2.17.1. Veritone 接続を構成する

この操作は、Veritone への接続に使用される Veritone サードパーティ サービス を設定します。この操作は、Veritone でアクションを実行する他のすべての操作に必要です。

ベリトーンサービスIDベリトーンサービス 型のパラメータとして指定する必要があります。

2.17.2. Veritone 翻訳アイテム

この操作は、スコープ クエリに一致する各項目のテキストに対して Veritone 翻訳ジョブを実行します。

アイテムのテキストは Nuix アイテムから抽出され、翻訳のために Veritone に送信されます。結果は Nuix アイテムに保存されます。

操作には次の設定があります。

  • スコープクエリ: 翻訳する項目を選択するための Nuix クエリ。

  • ソース言語プロバイダー: アイテムの言語を決定する方法。

    • 明示的: アイテムの言語を明示的に提供してください。

    • Nuix が検出した言語: Nuix によって検出された言語を使用します。

  • アイテムの言語を判別できなかった場合は、明示的なソース言語にフォールバックします。: Nuix がアイテムの言語を検出できなかった場合は、 明示的に指定されたソース言語にフォールバックします。

  • 明示的なソース言語: 明示的に提供されたソース言語。

  • 対象言語: 翻訳対象言語です。

  • で本文テキストをトリミングする: チェックされている場合、 アイテムの本文テキストが Veritone に翻訳のために送信される前にトリミングされる文字数です。

  • 翻訳結果を保存: 翻訳したテキストを保存する方法。

    • アイテムテキストとして: 翻訳したテキストをアイテムテキストとして保存します。

    • カスタムメタデータとして: 翻訳したテキストをカスタムメタデータとして保存します。

    • 子アイテムとして: 翻訳したテキストを子アイテムとして保存します。

  • カスタムメタデータ名: 翻訳したテキストをカスタムメタデータとして保存するときに使用するカスタムメタデータ名。

  • 出力フォルダ: 翻訳されたテキストファイルを子アイテムとして追加するときに保存するフォルダーの場所です。

  • テキストの変更

    • アペンド: 翻訳したテキストを既存の文書テキストの末尾に追加します。

    • 上書き: 文書のテキストを翻訳されたテキストに置き換えます。

*失敗したアイテムにタグを付ける*オプションの動作は、リーガルエクスポート操作の場合と同じです。
翻訳された項目にタグを付ける オプションは 失敗したアイテムにタグを付ける オプションと同じ動作をしますが、正常に翻訳された項目に対して行われます。
サポートされていない言語の項目にタグを付ける オプションは 失敗したアイテムにタグを付ける オプションと同じ動作をしますが、その言語に Veritone 翻訳エンジンがサポートされていない項目に対して行われます。

2.17.3. Veritone 転記アイテム

この操作は、スコープ クエリに一致する各項目に対して Veritone トランスクリプション ジョブを実行します。

この操作は、Nuix アイテムにバイナリ データが格納されている場合に最適に実行されるように設計されています。

バイナリ データが保存されていない Nuix アイテムに対して Veritone 転記アイテム 操作を実行すると、処理にかなり時間がかかります。この操作を実行する前に、証拠を追加 操作中にアイテムのバイナリを保存するか、バイナリストアに入力する 操作を使用して転記する必要があるアイテムのバイナリを入力してください。

アイテムは Nuix アイテムからネイティブ ファイルとして抽出され、転記のために Veritone に送信されます。結果は Nuix アイテムに保存されます。

操作には次の設定があります。

  • スコープクエリ: 転記する項目を選択するための Nuix クエリ。

  • 対象言語: 転写対象言語です。

  • 転写結果を保存: 書き起こしたテキストを保存する方法

    • アイテムテキストとして: 転記したテキストをアイテムテキストとして保存します。

    • カスタムメタデータとして: 転記したテキストをカスタムメタデータとして保存します。

  • カスタムメタデータ名: 転記されたテキストをカスタムメタデータとして保存するときに使用するカスタムメタデータ名。

  • テキストの変更

    • アペンド: 転記したテキストを既存の文書テキストの末尾に追加します。

    • 上書き: 文書のテキストを転記したテキストに置き換えます。

*失敗したアイテムにタグを付ける*オプションの動作は、リーガルエクスポート操作の場合と同じです。