aviso Legal
O material neste documento é apenas para fins informativos. Os produtos descritos estão sujeitos a alterações sem aviso prévio, devido ao programa de desenvolvimento contínuo do fabricante. A Nuix não faz representações ou garantias com relação a este documento ou com relação aos produtos aqui descritos. A Nuix não será responsável por quaisquer danos, perdas, custos ou despesas, diretos, indiretos ou incidentais, consequentes ou especiais, decorrentes de, ou relacionados ao uso deste material ou dos produtos aqui descritos.
© Nuix Canada Inc. 2024 Todos os direitos reservados
Introdução
Este guia descreve as opções e opções do componente Design de fluxo de trabalho Web do Automatizar. Este documento funciona como uma referência - use o índice para procurar o tópico que você conhece.
O software Automate e esta documentação podem conter bugs, erros ou outras limitações. Se você encontrar algum problema com o software Automate ou com esta documentação, entre em contato com o suporte da nuix.
Estilos usados neste guia
| Nota: Este ícone indica que são fornecidos esclarecimentos adicionais, por exemplo, quais são as opções válidas. |
| Dica: Este ícone permite que você saiba que é fornecido um petisco particularmente útil, talvez uma maneira de usar o aplicativo para obter um determinado comportamento. |
| Advertência: Este ícone destaca informações que podem ajudá-lo a evitar um comportamento indesejado. |
Enfatizado: Este estilo indica o nome de um menu, opção ou link.
Nota: Esse estilo indica código que deve ser usado literalmente e pode se referir a caminhos de arquivos, nomes de parâmetros ou consultas de pesquisa do Nuix.
1. Editando fluxos de trabalho
Os fluxos de trabalho são gerenciados no Automate na seção Bibliotecas.
Para editar, excluir, desativar ou ativar um Workflow, selecione o Workflow na Biblioteca e clique no botão à direita do nome do Workflow.
Para criar um novo Workflow, clique no botão Adicionar+ fluxo de trabalho na Biblioteca desejada. Um fluxo de trabalho pode ser criado de diferentes maneiras:
-
Fluxo de trabalho em branco: crie um novo fluxo de trabalho começando com uma tela em branco.
-
Modelo: crie um fluxo de trabalho começando a partir de um modelo existente.
-
Assistente de fluxo de trabalho: crie um fluxo de trabalho que processe e exporte dados respondendo a uma série de perguntas.
-
Arquivo de fluxo de trabalho: carregue um arquivo de fluxo de trabalho criado anteriormente.
Os parâmetros podem ser usados no fluxo de trabalho junto com texto estático em todos os campos que aceitam entradas do usuário, como consultas de pesquisa, caminhos de arquivos, nomes de conjuntos de produção, etc. Consulte Parameters Guide para obter mais detalhes.
1.1. Ações de Operação
As seguintes ações podem ser executadas em operações usando os botões da lista de operações:
-
Adicionar (
image:../_images/plus.svg[width=12pt]) uma operação para o fluxo de trabalho. -
Retirar (
image:../_images/minus.svg[width=12pt]) as operações selecionadas no fluxo de trabalho. -
Mover para cima (
image:../_images/up.svg[width=12pt]) a operação selecionada no fluxo de trabalho. -
Mover para baixo (
image:../_images/down.svg[width=12pt]) a operação selecionada no fluxo de trabalho. -
Pesquisa (
image:../_images/search.svg[width=12pt]) na lista de operações por nome.
Além disso, as seguintes ações podem ser executadas usando o menu da lista de operações Ações:
-
Ativar / Desativar: Uma operação desativada não afeta a execução do fluxo de trabalho.
-
Tornar pulável / Remover pulável: Se uma operação estiver marcada como Pulável, um usuário pode pular a execução da operação enquanto a operação é executada.
| As operações ignoráveis podem deixar a execução do trabalho em um estado inesperado. Eles só deverão ser habilitados se a lógica do fluxo de trabalho subsequente não for afetada pela operação ignorada. |
-
Ativar falha suave / Desativar falha suave: Uma operação marcada como Falha suave não interromperá a execução do fluxo de trabalho caso a operação encontre um erro.
-
Habilitar substituição de campo / Desativar substituição de campo: Uma operação marcada como Substituição de campo pode ter todos os seus campos substituídos por parâmetros começando com o nome da operação e seguidos pelo nome do campo, por exemplo
{set_purview_case_case_identifier_type}. -
Inserir fluxo de trabalho: Inserir operações de um arquivo de fluxo de trabalho na posição selecionada.
-
Cortar: Corte as operações selecionadas (CTRL+X).
-
Copiar: Copie as operações selecionadas (CTRL+C).
-
Colar: Cole as operações previamente recortadas ou copiadas na posição selecionada (CTRL+V).
-
Excluir: Exclua as operações selecionadas (Del).
2. Operações
As operações são categorizadas pela plataforma sob a qual são executadas.
Quando uma operação tem múltiplas plataformas, por exemplo, a operação Metadados para SQL exporta dados de um caso Nuix para um servidor SQL, ela é documentada na plataforma para a qual é mais específica, neste exemplo SQL.
2.1. Operações de armazenamento do Azure
Estas operações realizam ações relacionadas com contas de Armazenamento do Azure.
2.1.1. Cópia do contêiner do Azure
Esta operação copia o conteúdo de um Contêiner do Azure para outro Contêiner do Azure usando o comando Microsoft AzCopy.
As seguintes configurações podem ser definidas:
-
URL do contêiner de armazenamento de origem: A URL do contêiner de armazenamento de origem.
-
Token SAS da conta de armazenamento de origem: O token de acesso SAS do contêiner de origem. Para criar um token, consulte https://learn.microsoft.com/en-us/azure/cognitive-services/translator/document-translation/create-sas-tokens?tabs=Containers.
-
URL do contêiner de armazenamento de destino: A URL do contêiner de armazenamento de destino.
-
Token SAS da conta de armazenamento de destino: O token de acesso SAS do contêiner de destino.
-
Sinalizadores de linha de comando: Opcionalmente, sinalizadores de linha de comando adicionais para o comando AzCopy.
2.1.2. Download do Contêiner do Azure
Esta operação descarrega o conteúdo de um contentor Azure para armazenamento local utilizando o comando Microsoft AzCopy.
As seguintes configurações podem ser definidas:
-
URL do contêiner de armazenamento: A URL do contêiner de armazenamento.
-
Token SAS da conta de armazenamento: O token de acesso SAS. Para criar um token, consulte https://learn.microsoft.com/en-us/azure/cognitive-services/translator/document-translation/create-sas-tokens?tabs=Containers.
-
Baixar local: A pasta para a qual baixar os dados.
2.1.3. Configurar a conexão da conta de armazenamento do Azure
Esta operação define a configuração usada para conectar-se à conta do Armazenamento do Azure. Esta operação é necessária para todas as operações relacionadas ao Armazenamento do Azure, com exceção do Azure Container Copy e do Azure Container Download.
O ID da conta de armazenamento do Azure deve ser especificado como um parâmetro do tipo Conta de Armazenamento do Azure.
2.1.4. Criar contêiner de conta de armazenamento do Azure
Esta operação cria um contêiner na conta de armazenamento do Azure configurada.
O Nome do contêiner será normalizado para respeitar os requisitos do Azure descritos em https://learn.microsoft.com/en-us/rest/api/storageservices/naming-and-reference-containers--blobs--and- metadados#nomes de contêineres
2.1.5. Excluir contêiner da conta de armazenamento do Azure
Esta operação elimina um contentor na conta de Armazenamento do Azure configurada.
2.1.6. Gerar token SAS da conta de armazenamento do Azure
Esta operação gera um token de acesso SAS na conta de armazenamento do Azure configurada.
2.2. Brainspace
Essas operações transferem dados entre o caso Nuix e o Brainspace e permitem gerenciar diversas operações no Brainspace.
2.2.1. Definir conjunto de dados do Brainspace
Essa operação se conecta ao ambiente Brainspace e recupera o ID do conjunto de dados especificado, usando as seguintes configurações:
-
URL da API Brainspace: A URL para o ambiente Brainspace, por exemplo
https://app.brainslace.local -
Impressão digital do certificado: Opcional, a impressão digital SHA-256 do servidor do aplicativo Brainspace certificado que deve ser confiável mesmo que o certificado seja autoassinado.
-
Chave API: A chave API. Esse valor pode ser obtido na página Administração do Brainspace → Conectores → Autenticação da API.
-
Identificador do conjunto de dados:
-
EU IRIA: O ID do conjunto de dados do Brainspace.
-
Nome: O nome do conjunto de dados do Brainspace.
-
Nome (Regex): Uma expressão regular para corresponder ao nome do conjunto de dados do Brainspace.
-
-
Conjunto de dados existente: A ação a ser tomada se o caso não existir:
-
Clonar o conjunto de dados se ele ainda não existir cria um novo conjunto de dados clonando o conjunto de dados de origem.
-
Use apenas o conjunto de dados existente aciona um erro se o conjunto de dados não existir.
-
-
Configurações de clone: As configurações a serem usadas ao clonar um conjunto de dados.
-
Copiar grupos: Copie os grupos do conjunto de dados de origem para o conjunto de dados recém-criado.
-
Adicionar novo conjunto de dados ao grupo: Adiciona o conjunto de dados recém-criado ao grupo especificado.
-
2.2.2. Carregar itens para o Brainspace
Esta operação exporta o texto e os metadados dos itens do caso Nuix e os carrega no Brainspace.
As seguintes configurações podem ser definidas:
-
Consulta de escopo: A consulta Nuix para selecionar os itens a serem carregados no Brainspace.
-
Exportar metadados padrão: Exporte os metadados padrão dos itens para o Brainspace.
-
Exportar metadados personalizados do perfil: Opcional, o perfil de metadados a ser usado para metadados adicionais a serem exportados para o Brainspace. Ao usar esta opção, um Arquivo de mapeamento de campo personalizado deve ser fornecido.
-
Arquivo de mapeamento de campos personalizados: O arquivo de mapeamento JSON definindo o mapeamento do perfil de metadados personalizado para o Brainspace.
-
Exportar DocIDs do conjunto de produção: Se marcado, o nome do conjunto de produção do qual exportar os números DocID.
-
Aparar o texto do corpo em: se marcado, o tamanho em caracteres após o qual o corpo do texto de itens é cortado antes de carregar no Brainspace.
Quando o corpo do texto dos itens é cortado, o campo Texto cortado é definido como true no Brainspace nos itens em questão. |
| A opção Marcar itens com falha como tem o mesmo comportamento da operação Exportação Legal. |
Exemplo de mapeamento Arquivo de mapeamento de campos personalizados de 2 campos Nuix personalizados denominados Custom Field 1 e Custom Field 2 :
{
"name": "Custom Mapping",
"fields": [
{
"name": "Custom Field 1",
"mapTo": "STRING"
},
{
"name": "Custom Field 2",
"mapTo": "ENUMERATION",
"faceted": true
}
]
}
2.2.3. Gerenciar a construção do Brainspace
Esta operação gerencia as construções no conjunto de dados Brainspace.
As seguintes configurações podem ser definidas:
-
Aguarde a conclusão da compilação anterior: Aguarda uma compilação que estava em execução no início da operação para ser concluída.
-
Construir conjunto de dados: Aciona uma compilação do conjunto de dados.
| A opção Construir conjunto de dados deve ser usada após a operação Carregar itens para o Brainspace para disponibilizar os itens carregados para revisão. |
-
Aguarde a conclusão da compilação: Aguarda a conclusão da compilação acionada por esta operação.
| Se uma opção Aguardar for selecionada e a compilação não for concluída no tempo alocado, a operação falhará. |
| O progresso percentual desta operação reflete o tempo limite decorrido e não é uma indicação do progresso da compilação. |
2.2.4. Propagar tags para o Brainspace
Esta operação propaga valores de tags de itens Nuix para os documentos Brainspace correspondentes como opções de tags.
As seguintes configurações podem ser definidas:
-
Consulta de escopo: A consulta para recuperar os itens Nuix para os quais propagar tags.
-
Tag raiz Nuix: O nome da tag raiz do Nuix.
Ao utilizar esta operação, espera-se que no Nuix seja criado um tag root, por exemplo Relevancy. Em seguida, os itens Nuix devem receber valores de subtag sob a tag raiz, por exemplo Relevancy|Relevant e Relevancy|Not Relevant. A tag raiz Nuix será mapeada para uma tag Brainspace (Relevancy neste exemplo), e os valores da subtag Nuix serão mapeados para as opções Brainspace (Relevant e Not Relevant neste exemplo). |
| Os itens Nuix devem ter apenas um valor de subtag, pois no Brainspace eles são mapeados para tags de escolha única. |
Valores de subtags aninhadas como Relevancy|Not Relevant|Personal não são suportados. |
Esta operação atualiza as escolhas de tags anteriores, mas não atualiza itens para os quais no Nuix não existe subtag. Como solução alternativa, para indicar que um documento não deve ter nenhuma das opções de marca anteriores, atribua-o a uma nova opção dedicada, por exemplo Relevancy|Unassigned. |
2.2.5. Recuperar Metadados do Brainspace
Esta operação lê os itens do formulário de metadados do Brainspace e se aplica aos itens do Nuix.
As seguintes configurações podem ser definidas:
-
Consulta de escopo Nuix: A consulta Nuix para selecionar os itens a serem atualizados.
-
Escopo do Brainspace:
-
Todos os Itens: Recupere metadados de todos os itens do Brainspace no conjunto de dados.
-
Caderno: Recupere apenas metadados dos itens do Brainspace no Notebook especificado.
-
-
Marcar itens correspondentes: A tag a ser aplicada aos itens do Nuix que correspondiam aos itens do Brainspace.
-
Recuperar tags do Brainspace: Selecione se deseja recuperar as tags atribuídas aos itens no Brainspace, e qual prefixo usar ao aplicar as tags aos itens correspondentes do Nuix.
-
Recuperar pontuações do classificador Brainspace: Selecione se os valores dos campos do Brainspace correspondem aos classificadores. Esses campos são identificados como tendo um tipo numérico e a palavra
scoreem seu nome. -
Recuperar campos do Brainspace: Selecione se deseja recuperar os campos de metadados do Brainspace para serem atribuídos como metadados personalizados aos itens do Nuix e quais campos do Brainspace recuperar.
2.3. Tipo IA
Essas operações realizam o enriquecimento dos itens Nuix usando os serviços Gen AI.
2.3.1. Configurar a conexão Gen AI
Esta operação define a configuração usada para conectar-se ao serviço Gen AI:
-
ID do serviço Gen AI: O ID do serviço Gen AI,
{gen_ai_service_id} -
Substituir modelo: Se definido, o modelo configurado no serviço Gen AI será substituído pelo valor definido abaixo.
-
Modelo: Se Substituir modelo estiver definido, o modelo a ser usado para operações Gen AI subsequentes.
2.3.2. Tokens de estimativa de IA da geração
Esta operação estimará o número de tokens necessários para executar prompts em cada um dos documentos no escopo.
As seguintes opções podem ser configuradas:
-
Consulta de escopo: A consulta Nuix para selecionar os itens para os quais o tamanho em tokens será estimado.
-
Execute uma amostra de: O tamanho da amostra para executar a análise.
-
Localização do conteúdo:
-
Texto do item: Estime a contagem de tokens do corpo do texto do item.
-
Metadados personalizados: Estime a contagem de tokens de um campo de metadados personalizado.
-
Imagens: Estime a contagem de tokens das imagens do documento.
-
Campo de perfil de metadados: Estime a contagem de tokens de um campo de um perfil de metadados.
-
| Para a estimativa de tokens de imagens, o cálculo é realizado esperando que as páginas do documento tenham um formato retangular e que cada página exija 6 blocos de imagem durante a tokenização. |
-
Campo de metadados de resultados: Armazene a contagem de tokens de prompt como metadados personalizados
-
Criar perfil de metadados: Se definido, um perfil de metadados será criado no caso com o campo relatando a contagem de tokens.
-
Marcar itens analisados como: A tag a ser aplicada aos itens analisados.
-
Marcar itens com falha como: A tag a ser aplicada aos itens que falharam.
As respostas do serviço Gen AI são registradas em cada documento em metadados personalizados com o prefixo GenAI. Além disso, os seguintes metadados do sistema são registrados:
-
GenAI|System|Model: O modelo utilizado na última análise, se aplicável. -
GenAI|System|Service: O nome do host do serviço que foi utilizado na última análise. -
GenAI|System|Warning: O aviso encontrado durante a última análise, se houver. -
GenAI|System|Error: O erro encontrado durante a última análise, se houver.
2.3.3. Extrair Entidades Gen AI
Esta operação extrairá entidades de cada documento no escopo executando prompts do Gen AI.
As seguintes opções podem ser configuradas:
-
Consulta de escopo: A consulta Nuix para selecionar os itens para análise com Gen AI.
-
Execute uma amostra de: O tamanho da amostra para executar a análise.
-
Texto do item:
-
Texto original do item: Prompt no corpo do texto do item original.
-
Metadados personalizados: Prompt sobre o valor de um campo de metadados personalizado.
-
Campo de perfil de metadados: Prompt no campo de um perfil de metadados.
-
-
Higienize o conteúdo antes de solicitar: Se definido, o conteúdo será pesquisado para os padrões regex listados. O padrão correspondente será substituído pela string de substituição fornecida. A expressão
$1pode ser usada para referenciar o primeiro grupo correspondente. -
Solicitação de contexto: O prompt para inicializar a análise Gen AI.
-
Prompt de documento: O prompt do documento a ser enviado ao serviço Gen AI. O parâmetro
{item_text}será substituído pelo texto do item, extraído usando a regra selecionada na opção Texto do item. O parâmetro{item_properties}será substituído por uma representação JSON de todas as propriedades do item. O parâmetro{email_header}será substituído pelo cabeçalho do e-mail do item, se aplicável, ou por uma string vazia caso contrário. -
Dividir conteúdo com separador: O separador a ser usado ao dividir o documento para caber dentro dos limites do token.
-
Prompt de extração: O prompt com instruções sobre como extrair as entidades.
Espera-se que o resultado do prompt seja uma lista JSON de entidades, com cada entidade sendo um objeto JSON com os campos type e value. |
-
Limpar respostas rápidas: Se definido, as respostas do prompt serão pesquisadas para os padrões de regex listados e o texto correspondente será substituído.
-
Esquema JSON de saída: Solicitar que a resposta rápida siga o esquema JSON especificado.
| Nem todos os serviços e modelos da Gen AI oferecem suporte a esquemas JSON. |
-
Temperatura: A configuração de temperatura, de 0 a 1, para definir o serviço Gen AI.
-
Tokens de resposta máxima: O número máximo de tokens a serem aceitos na resposta para cada prompt.
-
Localização dos resultados:
-
Entidades: Armazene os resultados como entidades no item
-
Metadados personalizados: Armazene os resultados como metadados personalizados com o prefixo de campo fornecido.
-
-
Criar perfil de metadados: Se definido, um perfil de metadados será criado no caso com os campos correspondentes aos nomes das entidades extraídas.
-
Marcar itens analisados como: A tag a ser aplicada aos itens analisados.
-
Marcar itens com falha como: A tag a ser aplicada aos itens que falharam.
As respostas do serviço Gen AI são registradas em cada documento em metadados personalizados com o prefixo GenAI. Além disso, os seguintes metadados do sistema são registrados:
-
GenAI|System|Model: O modelo utilizado na última análise, se aplicável. -
GenAI|System|Service: O nome do host do serviço que foi utilizado na última análise. -
GenAI|System|Warning: O aviso encontrado durante a última análise, se houver. -
GenAI|System|Error: O erro encontrado durante a última análise, se houver.
2.3.4. Remover Entidades
Esta operação remove entidades previamente atribuídas aos itens.
É possível especificar tipos de entidades específicas para remoção ou, alternativamente, todas as entidades dos itens no escopo podem ser removidas.
2.3.5. Prompt da Gen AI em documentos
Esta operação executará prompts do Gen AI em cada documento no escopo e registrará os resultados em campos de metadados personalizados de cada documento.
As seguintes opções podem ser configuradas:
-
Consulta de escopo: A consulta Nuix para selecionar os itens para análise com Gen AI.
-
Execute uma amostra de: O tamanho da amostra para executar a análise.
-
Texto do item:
-
Texto original do item: Prompt no corpo do texto do item original.
-
Metadados personalizados: Prompt sobre o valor de um campo de metadados personalizado.
-
Campo de perfil de metadados: Prompt no campo de um perfil de metadados.
-
-
Higienize o conteúdo antes de solicitar: Se definido, o conteúdo será pesquisado para os padrões regex listados. O padrão correspondente será substituído pela string de substituição fornecida. A expressão
$1pode ser usada para referenciar o primeiro grupo correspondente. -
Solicitação de contexto: O prompt para inicializar a análise Gen AI.
-
Prompt de documento: O prompt do documento a ser enviado ao serviço Gen AI. Os seguintes parâmetros estão disponíveis:
-
O parâmetro
{item_text}será substituído pelo texto do item, extraído usando a regra selecionada na opção Texto do item. -
O parâmetro
{item_properties}será substituído por uma representação JSON de todas as propriedades do item. -
O parâmetro
{email_header}será substituído pelo cabeçalho de e-mail do item, se aplicável, ou por uma string vazia, caso contrário. -
O parâmetro
{doc_id}será substituído pelo DocID do item. -
O parâmetro
{item_name}será substituído pelo nome do item. -
O parâmetro
{item_guid}será substituído pelo item guid.
-
-
Dividir conteúdo com separador: O separador a ser usado ao dividir o documento para caber dentro dos limites do token.
-
Avisar em partes quando o conteúdo excede o número máximo de tokens de alerta: Se definido, um prompt separado é executado para cada parte. Se não definido, um prompt é executado apenas na primeira parte e um aviso é registrado.
-
Manter respostas de lotes individuais: Se definido, as respostas de cada parte do documento serão armazenadas como campo de metadados personalizado, com o nome
GenAI|name|Level x|Part yondenameé o nome do prompt,xé o nível de recursão eyé o número da peça. -
Prompt de contexto para respostas rápidas: O prompt com o qual inicializar a análise Gen AI ao solicitar as respostas do nível anterior.
-
Prompt de conteúdo para respostas parciais: O prompt para enviar cada resposta do nível anterior.
-
Solicitações de perguntas: Os prompts de perguntas devem ser enviados ao serviço Gen AI, com as seguintes configurações:
-
Nome: O nome da pergunta
-
Pronto: O prompt a ser usado para o conteúdo do documento (ou seja, nível 1)
-
Prompt de conteúdo para respostas parciais: O prompt para montar as respostas do nível anterior. Esta opção é aplicável somente ao prompt em partes.
-
| No primeiro nível de prompt, para cada pergunta, o serviço Gen AI receberá o prompt de contexto (se houver), seguido pelo prompt do documento e, em seguida, pelo prompt da pergunta. |
| Ao solicitar em partes, em níveis de prompt subsequentes, para cada pergunta, o serviço Gen AI receberá o prompt de contexto para respostas parciais (se houver), seguido pelos prompts de conteúdo múltiplo para respostas parciais (dentro dos limites do token), seguidos pelo prompt da pergunta. |
-
Limpar respostas rápidas: Se definido, as respostas do prompt serão pesquisadas para os padrões de regex listados e o texto correspondente será substituído.
-
Analisar saída JSON: Se definido, as respostas do prompt serão analisadas como um dicionário JSON e as chaves e valores resultantes serão armazenados em campos de metadados personalizados aninhados. Se os dados não puderem ser analisados como JSON, a resposta será armazenada como uma string no campo de metadados personalizado. As datas serão analisadas se estiverem no formato ISO 8601, por exemplo,
2023-12-31T12:00:00Z, ou no formatoyyyy-MM-dd, por exemplo,2023-12-31 -
Esquema JSON de saída: Solicitar que a resposta rápida siga o esquema JSON especificado.
| Nem todos os serviços e modelos da Gen AI oferecem suporte a esquemas JSON. |
-
Use prompts de acompanhamento: Os prompts de acompanhamento para enviar ao serviço Gen AI após cada prompt de pergunta. Esta opção está disponível somente quando não há prompts em partes.
-
Execute prompts de acompanhamento somente se a resposta corresponder ao regex: Para cada resposta, os prompts de acompanhamento só serão executados se a resposta corresponder ao padrão regex.
-
Limpe as respostas do prompt de acompanhamento: Se definido, as respostas do prompt de acompanhamento serão pesquisadas para os padrões de regex listados e o texto correspondente será substituído.
-
Temperatura: A configuração de temperatura, de 0 a 1, para definir o serviço Gen AI.
-
Tokens de resposta máxima: O número máximo de tokens a serem aceitos na resposta para cada prompt.
-
Criar perfil de metadados: Se definido, um perfil de metadados será criado no caso com os campos correspondentes às respostas do prompt e do prompt de acompanhamento.
-
Marcar itens analisados como: A tag a ser aplicada aos itens analisados.
-
Marcar itens com falha como: A tag a ser aplicada aos itens que falharam.
As respostas do serviço Gen AI são registradas em cada documento em metadados personalizados com o prefixo GenAI. Além disso, os seguintes metadados do sistema são registrados:
-
GenAI|System|Model: O modelo utilizado na última análise, se aplicável. -
GenAI|System|Service: O nome do host do serviço que foi utilizado na última análise. -
GenAI|System|Warning: O aviso encontrado durante a última análise, se houver. -
GenAI|System|Error: O erro encontrado durante a última análise, se houver.
2.3.6. Prompt de IA Gen em imagens
Esta operação executará prompts do Gen AI nas imagens dos itens no escopo e registrará os resultados em campos de metadados personalizados.
| Ao executar a operação Prompt de IA Gen em imagens em itens Nuix que são imagens, é recomendado que os itens Nuix tenham binários armazenados. Ao executar a operação em itens Nuix que não são imagens, é recomendado executar a operação Generate Printed Images primeiro para gerar as imagens impressas. |
As seguintes opções podem ser configuradas:
-
Consulta de escopo: A consulta Nuix para selecionar os itens para transcrição com Gen AI.
-
Execute uma amostra de: O tamanho da amostra para executar a transcrição.
-
Solicitação de contexto: O prompt com o qual inicializar a transcrição Gen AI.
-
Solicitações de perguntas: Os prompts de pergunta a serem enviados ao serviço Gen AI. Para cada pergunta, o serviço Gen AI receberá o prompt de contexto (se houver), seguido pela imagem e o prompt da pergunta. Cada prompt de pergunta será enviado ao serviço Gen AI independentemente dos outros prompts de pergunta. Os seguintes parâmetros estão disponíveis:
-
O parâmetro
{page_number}será substituído pelo número da página na qual o prompt está sendo executado, e o parâmetro{page_transcription}será substituído pelo valor dos metadados personalizadosGenAI|Transcription|i, onde eu é o número da página na qual a transcrição está sendo executada. -
O parâmetro
{page_number}será substituído por uma representação JSON de todas as propriedades do item. -
O parâmetro
{email_header}será substituído pelo cabeçalho de e-mail do item, se aplicável, ou por uma string vazia, caso contrário. -
O parâmetro
{doc_id}será substituído pelo DocID do item. -
O parâmetro
{item_name}será substituído pelo nome do item. -
O parâmetro
{item_guid}será substituído pelo item guid.
-
-
Analisar saída JSON: Se definido, as respostas do prompt serão analisadas como um dicionário JSON e as chaves e valores resultantes serão armazenados em campos de metadados personalizados aninhados. Se os dados não puderem ser analisados como JSON, a resposta será armazenada como uma string no campo de metadados personalizado. As datas serão analisadas se estiverem no formato ISO 8601, por exemplo,
2023-12-31T12:00:00Z, ou no formatoyyyy-MM-dd, por exemplo,2023-12-31 -
Esquema JSON de saída: Solicitar que a resposta rápida siga o esquema JSON especificado.
| Nem todos os serviços e modelos da Gen AI oferecem suporte a esquemas JSON. |
-
Temperatura: A configuração de temperatura, de 0 a 1, para definir o serviço Gen AI.
-
Tokens de resposta máxima: O número máximo de tokens a serem aceitos na resposta para cada prompt.
-
Opções de impressão:
-
Consulta de subescopo de imagens nativas:: Os itens que devem ser enviados como imagens para o serviço Gen AI. Todos os outros itens serão impressos e as imagens impressas serão enviadas para o serviço Gen AI.
-
Imagens não nativas imprimem megapixels:: Para itens impressos, o tamanho de cada página impressa, em megapixels.
-
-
Opções de várias páginas:
-
Máximo de páginas: O número máximo de páginas a serem enviadas ao serviço Gen AI para cada item.
-
Repita o prompt para cada página:: Se definido, os prompts serão repetidos para cada página do documento.
-
Separador de página de saída de texto:: Ao solicitar em várias páginas, o separador a ser usado ao concatenar a resposta de cada página. O parâmetro
{page_number}será substituído pelo número da página. -
Adicionar separador antes da primeira página: Quando selecionado, o separador será adicionado antes da primeira página do documento.
-
Mesclar JSON de várias páginas:: Ao solicitar em várias páginas, se a resposta for fornecida em um formato de lista JSON e esta opção estiver definida, as respostas serão mescladas em uma única lista JSON.
-
-
Marcar itens analisados como: A tag a ser aplicada aos itens analisados.
-
Marcar itens com falha como: A tag a ser aplicada aos itens que falharam.
As respostas do serviço Gen AI são registradas em cada documento em metadados personalizados com o prefixo GenAI. Além disso, os seguintes metadados do sistema são registrados:
-
GenAI|System|Model: O modelo utilizado na última análise, se aplicável. -
GenAI|System|Service: O nome do host do serviço que foi utilizado na última análise. -
GenAI|System|Warning: O aviso encontrado durante a última análise, se houver. -
GenAI|System|Error: O erro encontrado durante a última análise, se houver.
2.3.7. Gen AI Transcrever Itens
Esta operação executará um prompt do Gen AI nas imagens dos itens no escopo e registrará os resultados no texto do documento ou como um campo de metadados personalizado, com opções semelhantes à operação Prompt do Gen AI em documentos.
Esta operação pode ser usada para transcrever imagens ou arquivos PDF.
| Ao executar a operação Prompt de IA Gen em imagens em itens Nuix que são imagens, é recomendado que os itens Nuix tenham binários armazenados. Ao executar a operação em itens Nuix que não são imagens, é recomendado executar a operação Generate Printed Images primeiro para gerar as imagens impressas. |
As seguintes opções podem ser configuradas:
-
Consulta de escopo: A consulta Nuix para selecionar os itens para transcrição com Gen AI.
-
Execute uma amostra de: O tamanho da amostra para executar a transcrição.
-
Localização dos resultados:
-
Texto do item: Armazene o resultado no texto do item, anexando-o ao texto existente ou substituindo-o.
-
Metadados personalizados: Armazene os resultados em um campo de metadados personalizado.
-
-
Solicitação de contexto: O prompt com o qual inicializar a transcrição Gen AI.
-
Prompt de transcrição: As instruções do prompt de transcrição.
-
Temperatura: A configuração de temperatura, de 0 a 1, para definir o serviço Gen AI.
-
Tokens de resposta máxima: O número máximo de tokens a serem aceitos na resposta para cada prompt.
-
Opções de impressão:
-
Consulta de subescopo de imagens nativas:: Os itens que devem ser enviados como imagens para o serviço Gen AI. Todos os outros itens serão impressos e as imagens impressas serão enviadas para o serviço Gen AI.
-
Imagens não nativas imprimem megapixels:: Para itens impressos, o tamanho de cada página impressa, em megapixels.
-
-
Opções de várias páginas:
-
Máximo de páginas: O número máximo de páginas a serem enviadas ao serviço Gen AI para cada item.
-
Repita o prompt para cada página:: Se definido, os prompts serão repetidos para cada página do documento.
-
Separador de página de saída de texto:: Ao solicitar em várias páginas, o separador a ser usado ao concatenar a resposta de cada página. O parâmetro
{page_number}será substituído pelo número da página. -
Adicionar separador antes da primeira página: Quando selecionado, o separador será adicionado antes da primeira página do documento. formato, se esta opção estiver definida, as respostas serão mescladas em uma única lista JSON.
-
-
Marcar itens analisados como: A tag a ser aplicada aos itens analisados.
-
Marcar itens com falha como: A tag a ser aplicada aos itens que falharam.
As respostas do serviço Gen AI são registradas em cada documento em metadados personalizados com o prefixo GenAI. Além disso, os seguintes metadados do sistema são registrados:
-
GenAI|System|Model: O modelo utilizado na última análise, se aplicável. -
GenAI|System|Service: O nome do host do serviço que foi utilizado na última análise. -
GenAI|System|Warning: O aviso encontrado durante a última análise, se houver. -
GenAI|System|Error: O erro encontrado durante a última análise, se houver.
2.3.8. Arquivos de transcrição Gen AI
Esta operação executará prompts Gen AI em cada arquivo no escopo e criará um arquivo de texto com a transcrição. Isso pode ser usado para transcrever, descrever ou fazer OCR de imagens ou arquivos PDF.
Os arquivos PDF de origem são rasterizados para imagens. Os itens restantes são enviados como estão para a plataforma Gen AI.
Para cada arquivo de imagem de origem, um arquivo de texto correspondente é escrito no Pasta de arquivos de texto de saída. Um relatório CSV chamado summary_report.csv é produzido, listando todos os arquivos de origem, o status de sucesso da transcrição, o caminho e o tamanho do arquivo de texto resultante, bem como a saída do mecanismo de transcrição.
A operação tem as seguintes configurações:
-
Pasta de arquivos de imagem de origem: A pasta que contém os arquivos de imagem a serem OCR.
-
Verificar pasta recursivamente: Se definido, a pasta de origem será verificada recursivamente e os arquivos de saída serão criados usando a mesma estrutura de pastas.
-
Ignorar imagens com arquivos de texto não vazios existentes: Se definido, as imagens serão ignoradas se houver um arquivo de texto com o nome esperado e um tamanho maior que 0 na pasta de destino.
-
Montar páginas regex: A expressão regular a ser usada para detectar documentos com várias páginas, que foram exportados com um arquivo de imagem por página. A regex deve ter pelo menos um grupo correspondente que é usado para selecionar o nome da base do documento.
-
Pasta de arquivos de texto de saída: A pasta na qual os arquivos de texto serão criados.
-
Manter arquivos incompletos: Se definido, arquivos vazios e arquivos de texto incompletos do mecanismo de OCR não são excluídos.
-
Solicitação de contexto: O prompt com o qual inicializar a transcrição Gen AI.
| As opções Temperatura e Máximo de tokens têm o mesmo comportamento do Gen AI Prompt On Documents. |
2.4. ElasticSearch
Essas operações transferem dados entre o caso Nuix e o ElasticSearch.
2.4.1. Configurar Conexão ElasticSearch
Esta operação define a configuração usada para conectar ao ambiente ElasticSearch:
-
Hospedeiro: O nome do host ElasticSearch, por exemplo
es.example.comou127.0.0.1. -
Hospedeiro: A porta na qual a API REST do ElasticSearch é implantada, por padrão
9200. -
Nome do usuário: O nome de usuário com o qual autenticar.
-
Senha: A senha para o nome de usuário acima.
-
Impressão digital do certificado: Opcional, a impressão digital SHA-256 do certificado ElasticSearch que deve ser confiável mesmo que o certificado seja autoassinado.
-
operações em massa: O número de operações a serem enviadas em massa para o ElasticSearch. O uso de um valor mais alto pode aumentar, mas requer mais memória.
2.4.2. Exportar itens para ElasticSearch
Esta operação exportará os metadados dos itens correspondentes à consulta de escopo para o ElasticSearch.
-
Consulta de escopo: A consulta Nuix para selecionar os itens a serem exportados para ElasticSearch.
-
perfil de metadados: O perfil de metadados do Nuix usado durante a exportação.
-
Nome do índice: O nome do índice ElasticSearch.
-
Texto de itens de exportação: Se selecionado, a operação exportará o texto do item além dos os metadados. O texto é exportado no ElasticSearch sob a propriedade do item
_doc_text. -
Cortar o texto do item em: O número máximo de caracteres a serem exportados do texto do item. Se o texto do item for cortado, a propriedade ElasticSearch
_doc_text_trimmedserá definida no item.
2.5. Gráfico de conhecimento
Essas operações configuram a conexão com o Knowledge Graph para enviar dados promocionais ao Knowledge Graph.
2.5.1. Configurar conexão do Knowledge Graph
| Esta operação está disponível apenas no Nuix Neo. |
Esta operação define a configuração usada para se conectar ao serviço Knowledge Graph.
O ID do serviço Knowledge Graph deve ser definido como um parâmetro do tipo Serviço de Gráfico de Conhecimento. Durante o envio do fluxo de trabalho no Scheduler, o usuário será solicitado a selecionar o Knowledge Graph Service e autenticar-se no serviço, se necessário.
O Arquivo do manual deve ser definido como um arquivo de playbook do Nuix que transformará itens em nós e arestas do Knowledge Graph.
O Tamanho da transação é usado para agrupar e desduplicar transações semelhantes.
2.5.2. Promover itens para o Knowledge Graph
| Esta operação está disponível apenas no Nuix Neo. |
Esta operação envia os itens no escopo para o Knowledge Graph.
2.6. Competência da Microsoft
Estas operações executam ações no Microsoft Purview eDiscovery (Premium).
Para obter uma visão geral do Microsoft Purview, consulte https://learn.microsoft.com/en-us/purview/ediscovery-overview.
2.6.1. Configurar conexão de alcance
Esta operação define a configuração usada para se conectar ao Azure Purview. Esta operação é necessária para todas as outras operações que executam ações no Azure Purview.
O ID do serviço Microsoft Purview deve ser especificado como um parâmetro do tipo Serviço Microsoft Purview.
2.6.2. Definir caso de competência
Esta operação seleciona um caso do Purview, usando as seguintes configurações:
-
Identificador de caso: O Nome ou EU IRIA do caso Purview.
-
Criar caso se não existir crie um novo caso, com as seguintes configurações
-
Número do processo: Opcional, o número do caso a ser definido no caso.
-
Descrição: Opcional, a descrição a ser definida no case.
-
2.6.3. Atualizar configurações de caso de alcance
Esta operação atualiza as configurações do caso do Azure Purview selecionado.
2.6.4. Gerenciar caso de competência
Esta operação executa as seguintes ações de gestão no caso de alcance selecionado:
-
Fechar: Fecha o caso.
-
Fechar e Excluir: Fecha o caso e tenta excluí-lo.
-
Reabrir: Abre um caso previamente fechado.
2.6.5. Objetos de escopo de consulta
Esta operação consulta objetos de um caso do Purview e os rastreia em parâmetros para os seguintes objetos:
-
Custodiantes: Todos os responsáveis pelo caso.
-
Fontes de dados de custódia: Todas as fontes de dados de custódia do caso.
-
Fontes de dados não custodiais: Todas as fontes de dados não custodiais do caso.
2.6.6. Adicionar fontes de dados de custódia ao escopo
Esta operação adiciona fontes de dados de custódia a um caso do Purview usando as seguintes configurações:
-
arquivo de fontes de dados: Um arquivo contendo a lista de fontes de dados a serem adicionadas.
-
Fontes de dados: Uma tabela com as fontes de dados a serem adicionadas.
2.6.7. Adicionar fontes de dados não custodiais ao escopo
Esta operação adiciona fontes de dados não privativas de liberdade a um caso do Purview usando as seguintes configurações:
-
arquivo de fontes de dados: Um arquivo contendo a lista de fontes de dados a serem adicionadas.
-
Fontes de dados: Uma tabela com as fontes de dados a serem adicionadas.
2.6.8. Aplicar retenção aos custodiantes do alcance
Esta operação aplica uma suspensão aos custodiantes do Purview, utilizando as seguintes definições:
-
Todos os guardiões de casos: Aplique a retenção a todos os custodiantes no caso de alcance selecionado.
-
Arquivo de custodiantes: Um arquivo contendo a lista de custodiantes aos quais aplicar a retenção.
-
IDs de custodiante JSON: Uma lista formatada em JSON de IDs de custódia do Purview.
-
Aguarde a conclusão: Aguarda até que a retenção seja aplicada.
2.6.9. Aplicar retenção a fontes de dados não custodiais
Esta operação aplica uma retenção a fontes de dados não custodiais do Purview, utilizando as seguintes definições:
-
Todas as fontes de dados não custodiais de caso: Aplique a suspensão a todas as fontes de dados sem custódia no caso de alcance selecionado.
-
Arquivo de fontes de dados sem custódia: Um arquivo contendo a lista de fontes de dados não privativas de liberdade às quais aplicar a retenção.
-
IDs de fontes de dados sem custódia JSON: Uma lista formatada em JSON de IDs de fontes de dados sem custódia do Purview.
-
Aguarde a conclusão: Aguarda até que a retenção seja aplicada.
2.6.10. Remover retenção dos custodiantes do alcance
Esta operação remove a retenção dos custodiantes do Purview.
Para as configurações disponíveis, consulte [_aplicar_hold_a_purview_custodians]
2.6.11. Remover retenção de fontes de dados não custodiais do alcance
Esta operação remove a retenção de fontes de dados sem custódia do Purview.
Para as configurações disponíveis, consulte [_aplicar_hold_a_purview_não_custodial_dados_sources]
2.6.12. Liberar custodiantes de alcance
Esta operação liberta os custodiantes do Purview do caso.
Para as configurações disponíveis, consulte [_aplicar_hold_a_purview_custodians]
2.6.13. Liberar fontes de dados não custodiais
Esta operação liberta as fontes de dados não privativas de liberdade do caso.
Para as configurações disponíveis, consulte [_aplicar_hold_a_purview_não_custodial_dados_sources]
2.6.14. Adicionar à pesquisa de escopo
Esta operação cria uma pesquisa do Purview e/ou adiciona fontes de dados à pesquisa.
Para obter a lista de campos disponíveis para consulta, consulte https://learn.microsoft.com/en-us/purview/ediscovery-keyword-queries-and-search-conditions
2.6.15. Estimar estatísticas de pesquisa de alcance
Esta operação estima os itens no âmbito da pesquisa do Purview e é necessária antes de adicionar os itens da pesquisa a um conjunto de revisão.
2.6.16. Adicionar ao conjunto de revisão de escopo
Esta operação cria um conjunto de revisão do Purview e/ou adiciona os resultados de uma pesquisa ao conjunto de revisão.
2.6.17. Criar consulta de conjunto de revisão de alcance
Esta operação cria uma consulta a ser aplicada a um conjunto de revisão do Purview.
Para obter a lista de campos disponíveis para consulta, consulte https://learn.microsoft.com/en-us/purview/ediscovery-document-metadata-fields
2.6.18. Excluir consulta do conjunto de revisão de escopo
Esta operação elimina uma consulta do conjunto de revisão do Purview.
2.6.19. Excluir pesquisa de alcance
Esta operação elimina uma pesquisa do Purview.
2.6.20. Conjunto de Revisão de Permissão de Exportação
Esta operação exporta os itens do conjunto de revisão ou de uma consulta de conjunto de revisão.
Para transferir a exportação, consulte as operações [_azul_container_copy] e [_azul_container_download].
2.6.21. Converter exportação de competência
Esta operação converte emails de uma exportação do Purview Estrutura de diretórios condensada (CDS) em um Imagem Lógica Nuix (NLI).
| Esta operação não oferece suporte a conversas do Teams e do Copilot. A operação foi descontinuada e substituída pela operação [_converter_purview_cds]. |
As seguintes configurações podem ser definidas:
-
Pasta de exportação de alcance: A pasta para onde os dados do Purview foram baixados.
-
Localização NLI resultante: A localização do NLI resultante.
-
Opções avançadas: Configurações usadas para identificar os arquivos de carregamento do Purview CDS e os nomes das colunas usados para extrair metadados dos itens.
-
Reduzir itens de ruído: Esta opção reduz os itens de ruído das extensões fornecidas no campo Extensões de ruído.
A opção para reduzir itens de ruído remove itens filhos que correspondem aos seguintes critérios:
-
O
Original_file_extensionestá na lista Extensões de ruído -
O
Native_extensioné diferente doOriginal_file_extension -
O
Input_pathtermina emOriginal_file_extension -
O
Compound_pathcomeça comInput_pathe é seguido por um sufixo(ex: ../Presentation.pptx/slide25.xml.rels)
2.6.22. Converter CDS de alcance
Esta operação converte e-mails, arquivos e conversas de uma exportação do Purview Estrutura de diretórios condensada (CDS) para um Imagem Lógica Nuix (NLI).
As seguintes configurações podem ser definidas:
-
Pasta de exportação de alcance: A pasta para onde os dados do Purview foram baixados.
-
Localização NLI resultante: A localização do NLI resultante.
-
Opções de exportação: Configurações usadas para identificar os arquivos de carregamento do Purview CDS
-
Converter e-mails para RFC 5322 (.eml): Converte todos os emails para o formato .eml com propriedades padronizadas. Desativar esta opção retém e-mails no formato MAPI, mas pode ter análise inconsistente de anexos em versões mais antigas do Nuix Engine.
-
Desanexar anexos regulares: Remove anexos regulares de e-mails e os substitui por um anexo stub. Esta opção não afeta os itens da família, mas tem um impacto no cálculo do hash MD5.
-
Anexos modernos de toco: Adiciona um item stub para anexos modernos ao e-mail. Esta opção não afeta os itens da família, mas produz um valor de hash MD5 diferente de um e-mail independente sem o anexo moderno.
-
-
Opções de item: Nomes de colunas usados para extrair metadados de itens gerais.
-
Opções de conversa: Nomes de colunas usados para extrair metadados de conversas.
-
Dividir exportação em: Divida a exportação em várias partes do número máximo de itens especificado.
OBSERVAÇÃO: Em alguns casos, os arquivos divididos .NLI podem ser maiores ou menores que o tamanho especificado exportação dividida em, pois as famílias precisam ser mantidas no mesmo arquivo de carga.
2.6.23. Purview Convert Advanced
Esta operação converte e-mails, arquivos e conversas de uma exportação do Purview MSG ou PST para um Imagem Lógica Nuix (NLI).
As seguintes configurações podem ser definidas:
-
Pasta de exportação de alcance: A pasta para onde os dados do Purview foram baixados.
-
Localização NLI resultante: A localização do NLI resultante.
-
Opções de exportação: Configurações usadas para identificar os arquivos de exportação do Purview
-
Converter e-mails para RFC 5322 (.eml): Converte todos os emails para o formato .eml com propriedades padronizadas. Desativar esta opção retém e-mails no formato MAPI, mas pode ter análise inconsistente de anexos em versões mais antigas do Nuix Engine.
-
Desanexar anexos regulares: Remove anexos regulares de e-mails e os substitui por um anexo stub. Esta opção não afeta os itens da família, mas tem um impacto no cálculo do hash MD5.
-
Anexos modernos de toco: Adiciona um item stub para anexos modernos ao e-mail. Esta opção não afeta os itens da família, mas produz um valor de hash MD5 diferente de um e-mail independente sem o anexo moderno.
-
-
Opções de item: Nomes de colunas usados para extrair metadados de itens gerais.
-
Opções de conversa: Nomes de colunas usados para extrair metadados de conversas.
-
Dividir exportação em: Divida a exportação em várias partes do número máximo de itens especificado.
OBSERVAÇÃO: Em alguns casos, os arquivos divididos .NLI podem ser maiores ou menores que o tamanho especificado exportação dividida em, pois as famílias precisam ser mantidas no mesmo arquivo de carga.
2.6.24. Converter Loadfile em imagem lógica Nuix
Esta operação converte um arquivo de carregamento CSV em Imagem Lógica Nuix (NLI).
As seguintes configurações podem ser definidas:
-
Loadfile: O arquivo de carregamento CSV a ser convertido.
-
NLI resultante: A localização do arquivo NLI resultante.
-
Coluna DocID: O nome da coluna que contém o ID do documento ou um identificador exclusivo para cada item.
-
Coluna ID da família: Opcional, o nome da coluna que contém o ID da família.
-
Coluna Caminho: Opcional, o nome da coluna que contém o caminho do documento, excluindo o nome do documento.
-
Coluna de nome: Opcional, o nome da coluna que contém o nome do documento.
-
Coluna de arquivo nativo: Opcional, o nome da coluna que contém o caminho para o arquivo nativo.
-
Coluna do custodiante: Opcional, o nome da coluna que contém o custodiante associado ao documento.
-
Coluna MD5: Opcional, o nome da coluna que contém o documento MD5.
-
Carregar todos os campos: Selecione esta opção para converter todas as colunas do arquivo de carregamento em campos de metadados no NLI.
-
Prefixo de metadados de campos: Opcional, o prefixo a ser usado para campos de metadados no NLI.
2.6.25. Criar imagem lógica Nuix
Esta operação empacota uma pasta local em Imagem Lógica Nuix (NLI).
As seguintes configurações podem ser definidas:
-
Local de origem: A pasta a ser empacotada.
-
Localização NLI resultante: A localização do NLI resultante.
2.7. Cofre do Google
Essas operações realizam ações no Google Vault.
Para uma visão geral do Google Vault, consulte https://support.google.com/vault/answer/2462365?hl=en
2.7.1. Configurar conexão do Vault
Esta operação define o Serviço de terceiros do Google Vault que será usado para conectar-se ao Google Vault. Esta operação é necessária para todas as outras operações que executam ações no Vault.
O ID do serviço do Google Vault deve ser especificado como um parâmetro do tipo Serviço Google Vault.
2.7.2. Definir assunto do Vault
Esta operação seleciona um assunto do Vault usando as seguintes configurações:
-
Identificador de assunto: O EU IRIA, Nome ou Nome (Regex) do Vault é importante.
-
Filtro de estado da matéria: O estado exigido do Vault é importante.
-
Criar matéria se ela não existir: Caso o caso não exista com o filtro de estado requerido, cria um novo caso com as seguintes configurações:
-
Descrição: Opcional, a descrição a ser definida sobre o assunto.
-
2.7.3. Gerenciar assunto do Vault
Esta operação executa as seguintes ações de gerenciamento no assunto do Vault selecionado.
-
Fechar: Encerra o assunto.
-
Excluir: Exclui o assunto.
-
Reabrir: Reabre o assunto.
-
Recuperar exclusão: Recupera o assunto.
2.7.4. Criar consultas salvas no Vault
Esta operação cria consultas salvas no Vault no assunto selecionado do Vault usando as seguintes configurações:
-
Prefixo do nome da consulta: O prefixo usado no nome das consultas salvas.
-
Escopo de dados: O escopo dos dados para as consultas salvas.
-
Usar intervalo de datas: Defina um intervalo de datas para filtrar os dados cobertos pelas consultas salvas com as seguintes configurações:
-
Fuso horário: O fuso horário do intervalo de datas.
-
Data de início: A data de início do período.
-
Data final: A data de término do período.
-
-
Consultar locais e termos:
-
Ler arquivos CSV: Leia os locais de consulta e termos dos arquivos CSV.
-
Arquivo de locais de consulta: Um arquivo contendo a lista de locais de consulta.
-
Arquivo de termos de consulta: Um arquivo contendo a lista de termos de consulta.
-
-
Inserir manualmente: Insira manualmente os locais e termos da consulta.
-
Locais de consulta: Uma tabela com os locais de consulta a serem adicionados.
-
Termos de consulta: Uma tabela com os termos de consulta a serem adicionados.
-
-
Um Localização é a unidade usada para consultas e guardas de documentos do Vault. Especifica o serviço Google, o tipo de localização e o valor, por exemplo:
MAIL,ACCOUNT,user1@example.com GROUPS,ACCOUNT,group1@example.com
Um Termo de consulta é um filtro aplicado aos dados cobertos pelas consultas e guardas de documentos do Vault. Especifica o serviço do Google e os termos específicos do serviço, por exemplo:
MAIL,from:user1 subject:Hello has:attachment GROUPS,from:group1
| Para um localização, os tipos de localização disponíveis dependem do serviço Google selecionado. Por exemplo, para o serviço Google Correspondência, apenas os tipos de localização E-Mail, Unidade de Organização e Organização inteira podem ser usados. O tipo de localização Organização inteira também está disponível apenas para o serviço Correspondência. |
2.7.5. Exportar consultas salvas no Vault
Esta operação cria exportações do Vault no caso do Vault selecionado usando as seguintes configurações:
-
Prefixo do nome de exportação: O prefixo usado no nome das exportações.
-
Região: A região de dados solicitada para as exportações.
-
Formato da mensagem: O formato de arquivo para mensagens exportadas.
-
Opções de correio:
-
Incluir conteúdo do modo confidencial do Gmail: Exporte conteúdo em modo confidencial.
-
Use o novo sistema de exportação: Use o novo sistema de exportação.
-
Exportar arquivos vinculados do Drive: Crie uma exportação vinculada para arquivos vinculados do Drive.
-
-
Opções de direção:
-
Incluir informações de nível de acesso para usuários com acesso indireto a arquivos: Inclui informações de nível de acesso para usuários com acesso indireto aos arquivos.
-
-
Tipo de identificador de consulta salva: O tipo dos identificadores.
-
Identificadores de consulta salvos: Os identificadores usados para encontrar as consultas salvas.
-
Aguarde a conclusão: Aguarde a conclusão das exportações.
| Formato da mensagem aplica-se apenas aos serviços Gmail, Grupos, Bate-papo e Voz. |
2.7.6. Baixar exportações do Vault
Esta operação baixa as exportações do Vault do assunto do Vault selecionado usando as seguintes configurações:
-
Baixar local: A pasta para a qual baixar as exportações.
-
Incluir explicitamente exportações vinculadas: Baixe as exportações vinculadas.
-
Tipo de identificador de exportação: O tipo dos identificadores.
-
Exportar identificadores: Os identificadores usados para localizar as exportações.
| As exportações vinculadas são criadas ao usar a configuração Exportar arquivos vinculados do Drive na operação [_exportar_vault_salvou_queries]. |
2.7.7. Definir exportações do Vault
Esta operação seleciona exportações do Vault usando as seguintes configurações:
-
Incluir explicitamente exportações vinculadas: Inclui exportações vinculadas.
-
Aguarde a conclusão: Aguarde a conclusão das exportações.
-
Tipo de identificador de exportação: O tipo dos identificadores.
-
Exportar identificadores: Os identificadores usados para localizar as exportações.
2.7.8. Adicionar retenções de cofre
Esta operação adiciona retenções do Vault no caso do Vault selecionado usando as seguintes configurações:
-
Manter prefixo do nome: O prefixo usado no nome das reservas.
-
Opções de correio/grupos:
-
Usar intervalo de datas: Defina um intervalo de datas para filtrar os dados cobertos pela retenção com as seguintes configurações:
-
Data de início: A data de início em UTC para o intervalo de datas.
-
Data final: A data de término em UTC para o intervalo de datas.
-
-
-
Opções do Drive/Bate-papo:
-
Incluir itens em drives de compartilhamento: Incluir arquivos em drives compartilhados.
-
Incluir conversas em espaços do Chat: Inclui mensagens nos espaços do Chat dos quais o usuário era membro.
-
-
Mantenha locais e termos:
-
Ler arquivos CSV: Leia os locais de espera e os termos de consulta dos arquivos CSV.
-
Manter arquivo de locais: Um arquivo contendo a lista de locais de espera.
-
Arquivo de termos de consulta: Um arquivo contendo a lista de termos de consulta.
-
-
Inserir manualmente: Insira manualmente os locais e termos de retenção.
-
Locais de espera: Uma tabela com os locais de espera a serem adicionados.
-
Termos de consulta: Uma tabela com os termos de consulta a serem adicionados.
-
-
Consulte [_criar_vault_salvou_queries] para obter as definições e exemplos de Localização e Termo de consulta.
2.7.9. Remover locais dos cofres
Esta operação remove locais das retenções do Vault no caso selecionado do Vault usando as seguintes configurações:
-
Todos os locais de espera: Remova todos os locais de retenção.
-
Manter arquivo de locais: Um arquivo contendo a lista de valores de localização de retenção a serem removidos.
-
Locais de espera: Uma tabela com os valores do local de retenção a serem removidos.
-
Remover de todas as retenções: Remova os locais especificados de todas as retenções.
-
Tipo de identificador de espera: O tipo dos identificadores.
-
Manter identificadores: Os identificadores usados para encontrar as retenções.
| Se todos os locais forem removidos de uma retenção, a retenção também será excluída. |
2.8. Nuix Investiga
Essas operações atribuem permissões a itens no caso Nuix para uso no Nuix Investigate.
2.8.1. Adicionar itens à pasta
Esta operação atribui itens do caso Nuix que correspondem ao Consulta de escopo e à pasta específica Consulta ao Pasta especificado.
Se a opção Incluir itens no caminho for selecionada, todos os itens no caminho até e incluindo o item raiz serão incluídos.
2.8.2. Remover itens da pasta
Esta operação remove itens do caso Nuix que correspondem ao Consulta de escopo e à pasta específica Consulta ao Pasta especificado.
2.8.3. Atribuir pastas ao grupo
Esta operação atribui Pastas a Nuix Investigate Grupos, identificado por Nome ou EU IRIA.
2.9. Nuix Descubra
Essas operações transferem dados entre o caso Nuix e o Nuix Discover e gerenciam a construção no Nuix Discover.
2.9.1. Configurar a conexão Nuix Discover
Esta operação define a configuração usada para conectar-se ao ambiente Nuix Discover.
Opcionalmente, o Descubra o serviço pode ser usado e apontar para um parâmetro do tipo Descubra o serviço. Durante o envio do fluxo de trabalho no Agendador, o usuário será solicitado a selecionar o serviço Nuix Discover e autenticar-se no serviço, se necessário.
Quando não se utiliza um Nuix Discover Service, as seguintes opções são explicitamente definidas na operação:
-
Descubra o nome do host: O nome do host da API Nuix Discover, por exemplo
ringtail.us.nuix.com -
Token de API: O token da API para conectar-se. Este token pode ser obtido na página de administração de usuários do Nuix Discover → Usuários → nome do usuário → Acesso à API.
2.9.2. Definir o caso Nuix Discover
Esta operação recupera o ID do caso especificado usando as seguintes configurações:
-
Identificador de caso:
-
EU IRIA: O ID do caso Nuix Discover.
-
Nome: O nome do caso Nuix Discover.
-
Nome (Regex): Uma expressão regular para corresponder ao nome do caso Nuix Discover.
-
-
Repositório de arquivos: O tipo de repositório a ser usado para carregar arquivos nativos. Para implantações locais do Nuix Discover, defina o Compartilhamento de arquivos do Windows local correspondente à pasta de importações do caso do Nuix Discover. Para implantações SaaS, use o repositório Amazon S3.
A localização Repositório de arquivos normalmente pode ser derivada do nome do caso Nuix Discover, por exemplo, usando um caminho semelhante a \\DISCOVER.local\Repository\Import\{discover_case_name}. No entanto, em certas situações, o nome da pasta de importação pode ser diferente do nome do caso Nuix Discover, por exemplo, se o nome do caso tiver espaços ou caracteres não alfanuméricos, como pontuação, ou se houver 2 casos com o mesmo nome. Nesses cenários, um script pode ser usado para normalizar o nome do caso Nuix Discover e derivar a pasta de importação esperada. |
-
Caso existente: A ação a ser tomada se o caso não existir:
-
Clone caso se ainda não existir cria um novo caso ao clonar o caso de origem.
-
Use apenas o caso existente aciona um erro se o caso não existir.
-
-
Aguarde até que o caso esteja ativo: Aguarda o tempo especificado para que o caso se torne ativo.
| Use a opção Aguarde até que o caso esteja ativo em uma operação dedicada antes de promover documentos para o Nuix Discover, para garantir que os documentos possam ser carregados. |
-
Configurações de clone: As configurações a serem usadas ao clonar um caso.
2.9.3. Promova no Nuix Discover
Esta operação exporta um conjunto de produção do caso Nuix e carrega os itens para Nuix Discover.
As seguintes configurações podem ser definidas:
-
Nome do conjunto de produção: O nome do conjunto de produção a ser promovido para Nuix Discover.
-
Exportar metadados padrão: Exporte os metadados padrão dos itens para o Nuix Discover. Se marcada, uma cópia do perfil de metadados será salva na pasta de exportação.
-
Exportar metadados personalizados do perfil: Opcional, o perfil de metadados a ser usado para metadados adicionais a serem exportados para o Nuix Discover. Para usar esta opção, verifique se o caso do Nuix Discover está configurado com os campos definidos no perfil de metadados personalizados.
-
Execute a indexação no Nuix Discover: Aciona uma indexação no Nuix Discover após o upload dos documentos.
| Ative a opção Execute a indexação no Nuix Discover para que o conteúdo seja analisado e disponibilizado para pesquisa no Nuix Discover. |
-
Execute a desduplicação no Nuix Discover: Aciona uma desduplicação no Nuix Discover após o upload dos documentos.
-
Estratégia de ID de documento: Atribua novos Sequencial números de documento do caso Nuix Discover, ou use a numeração Nuix Conjunto de produção.
-
Nível: O nível Nuix Discover para o qual importar documentos.
-
Documentos por nível: O número máximo de documentos por nível.
-
Tipos de arquivo: Selecione os componentes para fazer upload para o caso Nuix Discover:
-
Natural arquivos
-
Texto extração do caso Nuix
-
PDF imagem do documento
-
-
Pasta de exportação temporária: A pasta onde a exportação legal temporária é criada. Após a conclusão do upload, os arquivos nativos e de texto são excluídos da pasta temporária.
-
Dividir exportação em: Divida a exportação e os uploads em várias partes do número máximo de itens especificados.
-
Aguarde a conclusão do trabalho do Nuix Discover: Aguarda até que os itens sejam carregados no Nuix Discover antes de passar para a próxima parte de upload ou antes de terminar a operação.
| As opções Converter e-mail, contatos, calendários para, Esquema de exportação e Marcar itens com falha como têm o mesmo comportamento que na operação de exportação legal. |
2.9.4. Recuperar metadados do Nuix Discover
Esta operação lê metadados de itens no Nuix Discover e aplica metadados personalizados ou tags de itens Nuix.
As seguintes configurações podem ser definidas:
-
Consulta de escopo Nuix: A consulta Nuix para selecionar os itens a serem atualizados.
Açao: A ação a ser executada nos itens Nuix
-
Itens de correspondência de tags: Marca itens que existem no Nuix Discover e no caso Nuix
-
Recuperar campos: Recupera campos do Nuix Discover e aplica-os a um item correspondente no caso Nuix como metadados personalizados
-
Marcar itens correspondentes e recuperar campos: Executa ambas as ações acima
Fonte do item Nuix Discover: Onde em Nuix Descubra para consultar itens
-
Todos os documentos: Todos os documentos do caso Nuix Discover
-
Pesquisa salva: Itens que correspondem a uma pesquisa salva
-
Produção: Itens em uma produção
-
Encadernador: Itens em uma pasta
Combine itens Nuix em: O GUID ou ID do documento do item para combinar com os itens do Nuix Discover
Combine os itens do Nuix Discover em: O ID do documento ou Campo Nomeado para combinar com itens de uma caixa Nuix
| Ao usar o escopo Campo Nome, o usuário deve fornecer um campo para usar ao combinar itens no Nuix Discover com itens em um caso Nuix |
Nome da tag Nuix: O nome da tag a ser usada quando um item da descoberta do Nuix corresponde a um item no caso do Nuix
Exportar CSV: Exporte valores de campo para documentos Nuix Discover para um arquivo CSV
Campos Nuix Discover: Os campos a serem recuperados do Nuix Discover
Além de fornecer os valores dos campos do Nuix Discover manualmente, o usuário também pode carregar a partir de um arquivo CSV ou TSV, por exemplo:
Field Name
[Meta] GUID
Document Type
Created By
2.10. ECC noturno
Essas operações realizam ações com o Nuix ECC.
2.10.1. Configurar a conexão Nuix ECC
Esta operação define a configuração usada para conectar-se ao ambiente Nuix ECC.
Opcionalmente, o Serviço Nuix ECC pode ser usado e apontar para um parâmetro do tipo Serviço Nuix ECC. Durante o envio do fluxo de trabalho no Scheduler, o usuário será solicitado a selecionar o serviço Nuix ECC.
-
Nome de servidor: O nome do host da instância Nuix ECC
-
Tipo de ponto final: O tipo de endpoint Nuix ECC, por exemplo
HTTPS. -
Nome do usuário: O nome de usuário usado para conectar-se à instância Nuix ECC.
-
Senha: A senha para o nome de usuário acima.
O valor digitado neste campo será armazenado em texto não criptografado no arquivo de fluxo de trabalho - uma senha NÃO DEVE ser inserida nesse campo. Em vez disso, defina esse campo como um nome de parâmetro protegido, por exemplo {nuix_ecc_password} e consulte a seção Protected Parameters para obter instruções sobre como definir valores de parâmetros protegidos. |
2.10.2. Definir Caso Nuix ECC
Esta operação define o caso a ser usado para Coleções Nuix ECC, usando as seguintes configurações:
-
Identificador de caso: O Nome, EU IRIA ou Nome (Regex) do caso Nuix ECC
-
Criar caso se não existir: Opcionalmente, crie um novo caso Nuix ECC se o especificado não existir.
2.10.3. Definir configuração de coleta Nuix ECC
Esta operação define a configuração a ser usada para Coleções Nuix ECC, usando as seguintes configurações:
-
Identificador de configuração: O Nome, EU IRIA ou Nome (Regex) da configuração da Coleção Nuix ECC
2.10.4. Adicionar fontes de coleta à coleção Nuix ECC
Esta operação adiciona fontes de coleta para a Coleção Nuix ECC, usando as seguintes configurações:
-
Fontes de coleta: As fontes para coletar:
-
Identificador: O identificador da fonte, por exemplo
LAPTOP-4KYG769 -
Tipo de identificador: O Nome, EU IRIA ou Nome (Regex) usado para determinar como uma fonte é identificada
-
Tipo de fonte: O tipo de fonte que o usuário está usando, por exemplo
Computer -
Estratégia de cobrança: A estratégia usada ao coletar da fonte, seja Usar configuração ou Use caminhos personalizados
-
Caminhos personalizados de coleção: Os caminhos personalizados para coletar, por exemplo
C:\Data\Files
-
| Ao usar a estratégia de coleta Usar configuração, as fontes devem ter um local predefinido para a coleta. Essa configuração é definida no aplicativo ECC Admin Console. |
Além de fornecer os valores das fontes de coleta manualmente, o usuário também pode carregar a partir de um arquivo CSV ou TSV, por exemplo:
Identifier IdentifierType SourceType CollectionStrategy CollectionCustomPaths
LAPTOP-4KYG769 NAME COMPUTER PREDEFINED ""
Server\s\d NAME_REGEX COMPUTER PREDEFINED ""
119 ID COMPUTER CUSTOM_PATH "C:\Data\Files,C:\Users\Admin\Documents,D:\Temp"
Ao especificar fontes de coleta de um arquivo CSV ou TSV, se o usuário estiver usando caminhos personalizados, os caminhos deverão usar um delimitador de vírgula ,, por exemplo C:\Data\Files,C:\Users\Admin\Documents |
2.10.5. Implantar agentes Nuix ECC
Esta operação é usada para implantar agentes Nuix ECC em computadores, usando as seguintes configurações:
-
Nome de usuário da conta de serviço: O nome de usuário da conta de serviço usada para executar comandos em computadores
-
Senha da conta de serviço: A senha da conta de serviço usada para executar comandos em computadores
-
Nomes de computadores: Os nomes dos computadores nos quais implantar agentes ECC, por exemplo
DESKTOP-AZH1K4
Além de fornecer os valores dos nomes dos computadores manualmente, o usuário também pode carregar a partir de um arquivo CSV ou TSV, por exemplo:
ComputerName
LAPTOP-4KYG769
DESKTOP-AZH1K4
Server2
-
Comando de instalação: o comando usado para instalar o agente ECC em um computador
Exemplo de uso do WinRS para implantar agentes:
winrs /r:{computer_name} /u:{username} /p:{password} "msiexec.exe /i PATH_TO_INSTALLER /q /norestart"
Exemplo de uso do PsExec para implantar agentes:
PATH_TO_PSEXEC \\{computer_name} -u {username} -p {password} -nobanner -s msiexec.exe /i PATH_TO_INSTALLER /q /norestart
O PATH_TO_INSTALLER é o caminho para o instalador do cliente ECC, por exemplo \\Storage\Installers\ECC_Client_Installer.msi. O PATH_TO_PSEXEC é o caminho para o executável PsExec, por exemplo C:\SysInternals\psexec.exe |
O comando de instalação usa parâmetros personalizados e expõe {computer_name}, {username} e {password}. Os parâmetros nome de usuário e senha serão sempre o nome de usuário e a senha da conta de serviço. O parâmetro nome do computador mudará para o nome do computador no qual o agente está sendo instalado. |
-
Tentar novamente o comando em caso de falha: Tenta novamente o comando de instalação se não for executado na primeira vez, o usuário também tem a opção de definir quantas vezes gostaria de tentar novamente o comando
-
Tempo esgotado: O tempo concedido para o agente ser implantado e ficar visível no console de administração do Nuix ECC.
| O tempo limite é para o comando e se aplica a cada execução do comando, por exemplo, se o usuário definir um tempo limite de 2 minutos e permitir até 5 tentativas de comando, cada vez que o comando for executado, o tempo limite do comando será atingido a cada dois minutos. Se o comando falhar 5 vezes, o tempo total do comando será de 10 minutos. |
2.10.6. Enviar coleção Nuix ECC
Esta operação envia uma coleção Nuix ECC ao ECC, usando as seguintes configurações:
-
Nome da coleção: O nome da coleção Nuix ECC
O nome da Coleção Nuix ECC pode mudar se mais de uma fonte de coleta estiver na coleção, o formato para coleções com mais de uma fonte de coleta é collection_name (1 of 4). Onde nome da coleção é o nome da coleção 1 seria o índice da fonte da coleção e 4 é a quantidade total de fontes da coleção na coleção. |
-
Aguarde o término da coleta: Opcionalmente, aguarda a conclusão da Coleta Nuix ECC antes de passar para a próxima operação.
-
Local de coleta: O local onde os arquivos coletados serão armazenados. Este local deve estar disponível para todos os computadores.
2.10.7. Remover agentes Nuix ECC
Esta operação é usada para remover agentes Nuix ECC em computadores, usando as seguintes configurações:
-
Nome de usuário da conta de serviço: O nome de usuário da conta de serviço usada para executar comandos em computadores
-
Senha da conta de serviço: A senha da conta de serviço usada para executar comandos em computadores
-
Nomes de computadores: Os nomes dos computadores dos quais remover agentes ECC, por exemplo
DESKTOP-AZH1K4
Além de fornecer os valores dos nomes dos computadores manualmente, o usuário também pode carregar a partir de um arquivo CSV ou TSV, por exemplo:
ComputerName
LAPTOP-4KYG769
DESKTOP-AZH1K4
Server2
-
Comando de desinstalação: o comando usado para desinstalar o agente ECC em um computador
Exemplo de uso do WinRS para desinstalar agentes:
winrs /r:{computer_name} /u:{username} /p:{password} "msiexec.exe /x PATH_TO_INSTALLER /q /norestart"
Exemplo de uso do PsExec para desinstalar agentes:
PATH_TO_PSEXEC \\{computer_name} -u {username} -p {password} -nobanner -s msiexec.exe /x PATH_TO_INSTALLER /q /norestart
O PATH_TO_INSTALLER é o caminho para o instalador do cliente ECC, por exemplo \\Storage\Installers\ECC_Client_Installer.msi. O PATH_TO_PSEXEC é o caminho para o executável PsExec, por exemplo C:\SysInternals\psexec.exe |
O comando de desinstalação usa parâmetros personalizados e expõe {computer_name}, {username} e {password}. Os parâmetros nome de usuário e senha serão sempre o nome de usuário e a senha da conta de serviço. O parâmetro nome do computador mudará para o nome do computador no qual o agente está sendo instalado. |
-
Tentar novamente o comando em caso de falha: Tenta novamente o comando de desinstalação se não for executado na primeira vez, o usuário também tem a opção de definir quantas vezes gostaria de tentar novamente o comando
-
Tempo esgotado: O tempo dado para o agente ser removido
| O tempo limite é para o comando e se aplica a cada execução do comando, por exemplo, se o usuário definir um tempo limite de 2 minutos e permitir até 5 tentativas de comando, cada vez que o comando for executado, o tempo limite do comando será atingido a cada dois minutos. Se o comando falhar 5 vezes, o tempo total do comando será de 10 minutos. |
2.11. Nuix Engine
Essas operações executam ações com o Nuix Engine.
2.11.1. Configurar o Nuix
Esta operação é utilizada para definir as configurações do motor de processamento Nuix, a partir do Nuix Perfil de configuração e/ou um Nuix Perfil de processamento. O uso de Processando perfis é recomendado em vez de Perfis de configuração.
Por padrão, o Nuix armazena perfis de configuração na pasta específica do usuário %appdata%\Nuix\Profiles. Para disponibilizar um perfil de configuração para todos os usuários, copie o arquivo .npf correspondente para %programdata%\Nuix\Profiles. |
| Apenas um subconjunto de configurações dos perfis de configuração são suportados no Automate Workflow, incluindo configurações de processamento de evidências (processamento de data, tipo MIME, processamento paralelo), exportação legal (tipo de exportação - parcial, carregar arquivo - parcial, processamento paralelo). |
Configurar trabalhadores
As configurações do trabalhador podem ser extraídas das configurações do Nuix (veja acima) ou podem ser fornecidas explicitamente no fluxo de trabalho.
Para trabalhadores locais, essas configurações podem ser usadas para especificar o número de trabalhadores locais, a memória por trabalhador e o diretório temporário do trabalhador.
| O Nuix não suporta a execução da Operação OCR e da operação Legal Export sem workers locais. Se um valor de 0 for especificado nos workers locais para essas operações, o Automate Workflow iniciará a operação com 1 worker local e quantos workers remotos forem solicitados. |
| Quando a opção Use trabalhadores remotos estiver habilitada, o Automate tentará adicionar quantos trabalhadores o mecanismo permitir, por exemplo, se o mecanismo do usuário permitir 5 trabalhadores, a operação tentará adicionar 5 trabalhadores. |
As configurações de processamento paralelo também podem ser definidas usando os seguintes parâmetros:
-
The - O número de trabalhadores locais para executar;
-
The - A memória (em MB) de cada trabalhador local;
Configurações de senha
As senhas são usadas durante o carregamento e o recarregamento dos dados no Nuix. Esta seção permite especificar o uso de uma lista de senhas do arquivo de senhas.
Configurações de keystore
Os armazenamentos de chaves são usados durante o carregamento e recarregamento dos dados no Nuix. Esta seção permite especificar um arquivo CSV ou TSV contendo as informações do keystore.
O arquivo de configuração do keystore espera as seguintes colunas:
-
Caminho: O caminho do arquivo para o armazenamento de chaves
-
Senha: A senha do armazenamento de chaves
-
Pseudônimo: O alias a ser usado do armazenamento de chaves
-
AliasPassword: A senha do alias
-
Alvo: O arquivo de formato de armazenamento de notas
(NSF)
Amostra ID do Lotus Notes:
Path Password Alias AliasPassword Target
C:\Stores\Lotus\user.id password example.nsf
C:\Stores\Lotus\automate.id password123 automate.nsf
Ao configurar um ID do Lotus Notes armazenamento, o destino pode ser caminho completo ou nome do arquivo do arquivo de formato de armazenamento de notas (NSF). Além disso, o destino pode ser definido como * para o arquivo de ID a ser aplicado a qualquer arquivo (NSF). |
Amostra mostrando PGP, PKCS12 e ID do Lotus Notes:
Path Password Alias AliasPassword Target
C:\Stores\PGP\0xA8B31F11-sec.asc test@example.com test_password
C:\Stores\PKCS12\template.keystore password ssl_cert
C:\Stores\Lotus\user.id password example.nsf
C:\Stores\PKCS12\example.keystore password123 example-sample
C:\Stores\PGP\0x9386E293-sec.asc user@example.com abcd1234
| Ao configurar o arquivo keystore nem todas as colunas terão valores, antes de adicionar este arquivo ao fluxo de trabalho, verifique se os valores estão nas colunas corretas. |
Um único keystore pode ser definido usando os seguintes parâmetros:
-
{keystore_file_path}- O caminho para o armazenamento de chaves. -
{keystore_file_password}- A senha do keystore. -
{keystore_file_alias}- O alias a ser usado no keystore. -
{keystore_file_alias_password}- A senha para o alias. -
{keystore_file_target}- O arquivo de formato de armazenamento de notas(NSF).
Ao usar um único armazenamento de chaves, o parâmetro {keystore_file_path} deve conter um caminho de arquivo válido para o armazenamento de chaves a ser adicionado. |
O arquivo keystore também pode ser definido usando o parâmetro:
-
{keystore_tsv}- O caminho do arquivo para o arquivo CSV ou TSV do keystore;
Exigir perfis Nuix no perfil de execução
Ao usar o fluxo de trabalho no Automate, selecionar a opção Exigir que todos os perfis Nuix sejam fornecidos no Perfil de Execução exigirá que todos os perfis Nuix usados no fluxo de trabalho sejam explicitamente fornecidos no perfil de execução. Se os perfis estiverem faltando, o trabalho não será iniciado.
2.11.2. Caso de Uso
Esta operação abre um caso Nuix existente ou cria um, dependendo da opção specified especificada.
O fuso horário do caso pode ser substituído substituindo-se o parâmetro {case_timezone_id}. Consulte Joda Time Zones para obter uma lista de IDs de fuso horário válidos.
2.11.3. Adicionar ao caso composto
Esta operação adiciona casos existentes ao caso Nuix aberto no momento.
| O caso Nuix atual deve ser um caso composto, caso contrário, esta operação falhará durante a execução. |
Por padrão, o caso composto será fechado e reaberto depois que todos os casos filho forem adicionados. A opção Pular recarregar caixa composta altera esse comportamento e não recarrega o caso composto. Algumas operações podem não ser executadas corretamente ao usar esta opção devido ao fato de o caso composto não ser atualizado.
2.11.4. Adicionar evidência
Esta operação adiciona evidências ao caso Nuix.
O tipo de dados que é adicionado ao caso Nuix é definido usando a configuração Escopo:
-
Item de caminho: Adiciona o arquivo ou pasta como um contêiner de evidências.
-
Conteúdo do caminho: Adiciona o conteúdo da pasta como um contêiner de evidências.
-
Nota: Crie recipientes de evidências separados para cada arquivo ou subpasta na pasta base.
-
Loadfile: Adiciona o conteúdo de um arquivo de carregamento Concordance, CSV ou EDRM XML 1.2 como um contêiner de evidências.
-
Lista de evidências: Cria um contêiner de evidência para cada linha na listagem. Veja Add Evidence from Evidence listing.
-
Exportação do Google Vault: Cria um contêiner de evidências para cada exportação do Google Vault e adiciona arquivos do Drive Link Export como itens secundários. Veja Add Evidence from Google Vault Exports.
-
Conjunto de dados: Adiciona o conteúdo do conjunto de dados como um contêiner de evidências. Veja Add Evidence from Data Set.
-
Microsoft Graph: Adiciona equipes, calendário, contatos, dados do Sharepoint a um contêiner de evidências usando o Microsoft Graph. Veja Add Evidence from Microsoft Graph.
-
SharePoint: Adiciona dados do SharePoint a um contêiner de evidências. Veja Add Evidence from SharePoint.
-
Intercâmbio: Adiciona dados do Exchange a um contêiner de evidências. Veja Add Evidence from Exchange.
-
Enterprise Vault: Adiciona dados do Enterprise Vault a um contêiner de evidências. Veja Add Evidence from Enterprise Vault.
-
S3: Adiciona dados do S3 a um contêiner de evidências. Veja Add Evidence from S3.
-
servidor SQL: Adiciona dados do SQL Server a um contêiner de evidências. Veja Add Evidence from SQL Server.
-
Oráculo: Adiciona dados do banco de dados Oracle a um contêiner de evidências. Veja Add Evidence from Oracle.
-
Documentum: Adiciona dados do documento a um contêiner de evidência. Veja Add Evidence from Documentum.
-
Dropbox: Adiciona dados do Dropbox a um contêiner de evidências. Veja Add Evidence from Dropbox.
-
SSH: Adiciona dados SSH a um contêiner de evidências. Veja Add Evidence from SSH.
-
Twitter histórico: Adiciona dados históricos do Twitter a um contêiner de evidências. Veja Add Evidence from Historical Twitter.
O fuso horário dos dados de origem especificado nas configurações e pode ser substituído definindo o parâmetro {data_timezone_id}. Consulte Joda Time Zones para obter uma lista de IDs de fuso horário válidos.
A codificação de origem e a codificação zip podem ser especificadas nas configurações.
2.11.5. Deduplicação
Se esta opção for selecionada, os dados serão deduplicados na ingestão. A menos que os dados sejam adicionados ao caso em um único lote, a opção Rastreie e desduplicar em relação a vários lotes de lotes precisa ser selecionada.
| O mecanismo de desduplicação na ingestão foi projetado para ser usado em cenários específicos onde uma grande quantidade de dados é carregada e que deve ter um alto nível de duplicação. Devido à sincronização em tempo real necessária entre os funcionários Nuix durante a ingestão, apenas uma ingestão com desduplicação pode ser executada por vez em um servidor, e nenhum trabalho remoto pode ser adicionado. |
Manipulação de itens duplicados:
-
Status: O status de redução de redundância é rastreado us*Processamento somente de metadados*o o campo de metadados
Load original. Os itens originais de nível superior terão o valortruenesse campo e todos os metadados e descendentes típicos serão processados - os descendentes não terão esse campo de metadados preenchido. Os itens duplicados de nível superior terão valorfalsenesse campo e nenhuma outra propriedade, exceto o campo de metadadosLoad duplicate of GUID, que indicará o GUID do documento original com a mesma chave de deduplicação do documento duplicado.
Para consultar todos os itens que não foram sinalizados como duplicados, use a consulta !boolean-properties:"Load original":false. |
-
Ignorar o processamento inteiramente ignorará completamente os itens identificados como duplicados e não haverá referência a esses itens no caso.
Método de deduplicação:
-
MD5 de nível superior: Usa o hash MD5 do item de nível superior.
-
Email Message-ID: Usa a propriedade ID da mensagem do email do primeiro campo não em branco: ID da mensagem, ID da mensagem, ID da mensagem Mapi-Smtp, ID da mensagem X, ID da mensagem X, X-Mapi-ID da mensagem SMTP, Mapi -X-Message-Id, Mapi-X-Smtp-Message-Id.
-
Chave de pesquisa MAPI por email: Usa a propriedade MAPI Search Key do primeiro campo não em branco: Mapi-Search-Key, X-Mapi-Search-Key.
| Para um resultado de desduplicação semelhante à desduplicação Nuix ItemSet pós-ingestão, marque a opção MD5 de nível superior apenas. Para obter o resultado mais abrangente de desduplicação, verifique as três opções. |
| Os e-mails na pasta are não são considerados para deduplicação com base no ID da mensagem e na Chave de pesquisa MAPI, devido ao fato de que os dados nessa pasta normalmente não são confiáveis. |
2.11.6. Filtro de data
Todos os modos diferentes de Sem filtro especificam o período para o qual os dados serão carregados. Todos os itens que estiverem fora do filtro de data serão ignorados por completo e nenhuma referência a esses itens existirá no caso.
2.11.7. Filtro do tipo MIME
Permite definir um filtro para restringir dados de certos tipos MIME a nomes específicos.
Por exemplo, o modo de filtro Partidas, com o tipo MIME application/vnd.ms-outlook-folder e o nome do item Caixa de correio - John Smith, terá o seguinte efeito:
-
Os itens que estão em um arquivo PST ou EDB devem ter a primeira pasta do Outlook em seu caminho chamada Mailbox - John Smith.
-
Itens que não estão em um arquivo PST ou EDB não são afetados.
| O filtro do tipo MIME pode ser usado para selecionar pastas específicas para carregamento de um arquivo EDB (Exchange Database). |
2.11.8. Adicionar evidência da lista de evidências
Ao selecionar a opção Escopo Lista de evidências, espera-se que o caminho de origem aponte para um arquivo CSV ou TSV com as seguintes colunas:
-
Nome: O nome do contêiner de evidência
-
Caminho: o caminho para o arquivo ou pasta para carregar
-
Custodiante: Opcional, o valor do custodiante a atribuir
-
: Opcional, o ID do fuso horário para carregar os dados. Consulte Joda Time Zones para obter uma lista de IDs de fuso horário válidos.
-
Codificação: opcional, a codificação para carregar os dados em.
-
ZipEncoding: Opcional, a codificação sob a qual carregar os arquivos zip.
Se colunas adicionais forem especificadas, elas serão configuradas como metadados de evidências personalizadas.
Se as configurações opcionais não forem fornecidas, as configurações padrão da operação Adicionar Evidência serão usadas.
Ao selecionar a opção Omitir nomes de pastas de evidências, o último nome da pasta do caminho para cada evidência incluída na listagem não será incluído no caminho no caso do Nuix. Em vez disso, todos os itens da pasta aparecerão diretamente no contêiner de evidências.
Amostra de lista de evidências:
Name Path Custodian Encoding Timezone Sample Custom Field Another Sample Field
Evidence1 C:\Data\Folder1 Morrison, Jane UTF-8 Europe/London Value A Value B
Evidence2 C:\Data\Folder2 Schmitt, Paul Windows-1252 Europe/Berlin Value C Value D
2.11.9. Adicionar evidência do conjunto de dados
Ao selecionar a opção Escopo Conjunto de dados, o campo ID do conjunto de dados deve apontar para um parâmetro do conjunto de dados definido na operação Configuração.
| O escopo Conjunto de dados é compatível somente com trabalhos enviados no Automate Scheduler e para assuntos que tenham conjuntos de dados associados a eles. |
2.11.10. Adicionar evidências das exportações do Google Vault
Ao selecionar a opção Escopo Exportação do Google Vault, espera-se que o caminho de origem aponte para uma pasta contendo todas as exportações do Google Vault e do Drive Link. Esta é a mesma estrutura de pastas obtida ao baixar as exportações da operação Baixar exportações do Vault.
Existem três maneiras distintas de adicionar exportações de link do Drive:
-
Como itens de família: Ignore a criação de um contêiner de evidências para a exportação de link de unidade e adicione cada arquivo de link de unidade como um item de família.
-
Arquivo de exportação vinculado adicionado como limite de item da família: Limite quantas vezes um arquivo de link de unidade pode ser adicionado como item de família. Depois que o limite for atingido, um espaço reservado será usado em seu lugar.
-
Substitua o arquivo de exportação vinculado por espaço reservado em famílias duplicadas: Se deve usar um espaço reservado para o arquivo de link da unidade ao encontrar famílias duplicadas.
-
-
Como itens independentes completos + itens familiares de espaço reservado: Crie um contêiner de evidências para a exportação do link da unidade e adicione arquivos de espaço reservado como itens de família no lugar do arquivo do link da unidade.
-
Como itens independentes: Crie um contêiner de evidências para o Drive Link Export sem qualquer link para os arquivos de exportação pai.
| Ao usar a opção Como itens de família, a operação pode levar muito tempo se houver muitos arquivos de link de unidade a serem adicionados como itens de família. Usar outro método, ou o limite de itens, pode ajudar a evitar esse problema. |
| Arquivos de espaço reservado são usados para diminuir o esforço de adicionar arquivos de link de unidade como itens de família. |
| Todos os arquivos de espaço reservado rastreiam GUID do item de conteúdo metadados personalizados que apontam para o item completo representado pelo espaço reservado. |
Depois de adicionar todas as exportações do Google Vault e do Drive Link, a opção Associar metadados do Google Vault analisará e atribuirá metadados personalizados dos arquivos de metadados xml e csv encontrados nas pastas de exportação.
2.11.11. Adicionar evidência do Microsoft Graph
Ao adicionar dados usando o Microsoft Graph, os seguintes parâmetros de configuração devem ser definidos antes da operação Adicionar evidência.
-
{ms_graph_tenant_id}: A ID do locatário para o Azure AD. -
{ms_graph_client_id}: A ID do cliente / aplicativo para o aplicativo que foi registrado no Azure AD e concedeu os privilégios necessários. -
Nota: O segredo do cliente que foi configurado para o ID do cliente fornecido, para autenticação.
-
Resposta: O caminho para um armazenamento de certificados PKCS # 12, para usar em vez do segredo do cliente, para autenticação.
-
{ms_graph_certificate_store_password}: A senha para o armazenamento de certificados PKCS # 12, se houver. -
Nota: Opcionalmente, o nome de usuário de um usuário que é membro das equipes a serem processadas, necessário apenas para a ingestão de calendários de equipe.
-
{ms_graph_password}: A senha do nome de usuário, se houver.
Para autenticação, um dos parâmetros {ms_graph_client_secret_protected} ou {ms_graph_certificate_store_path} deve ser definido. |
-
{ms_graph_start_datetime}: O início do intervalo de datas de coleta. -
{ms_graph_end_datetime}: O fim do intervalo de datas de coleta.
| Para coleção de calendários (usuários ou equipes), o intervalo de datas não pode exceder 5 anos. |
-
{ms_graph_retrievals}: Uma lista dos tipos de conteúdo a serem recuperados, contendo um ou mais dos seguintes valores:TEAMS_CHANNELS,TEAMS_CALENDARS,USERS_CHATS,USERS_CONTACTS,USERS_CALENDARS,USERS_EMAILS,ORG_CONTACTS,SHAREPOINT. -
{ms_graph_mail_folder_retrievals}: Opcionalmente, uma lista de pastas de e-mail para recuperar, contendo um ou mais dos seguintes valores:ARCHIVE,CLUTTER,CONVERSATION_HISTORY,DELETED_ITEMS,DRAFTS,INBOX,JUNK,OUTBOX,SENT_ITEMS,SYNC_ISSUES,OTHER,RECOVERABLE_ITEMS_DELETIONS,RECOVERABLE_ITEMS_PURGES,RECOVERABLE_ITEMS_DISCOVERY_HOLDS,RECOVERABLE_ITEMS_SUBSTRATE_HOLDS,RECOVERABLE_ITEMS_OTHER.
Além das opções de recuperação acima, os valores ALL, MAILBOX_ALL e RECOVERABLE_ITEMS_ALL podem ser usados para incluir todas as opções de recuperação, todas as recuperações na caixa de correio do usuário e todas as recuperações de itens recuperáveis, respectivamente.
-
{ms_graph_team_names}: Opcionalmente, uma lista de nomes de equipes para filtrar. -
{ms_graph_user_principal_names}: Opcionalmente, uma lista de nomes principais do usuário para filtrar. -
Nota: Opcionalmente, um booleano indic`{ms_graph_version_retrieval}
o todas as versões deve ser recuperado. O padrão é `false -
{ms_graph_version_limit}: Opcionalmente, um número inteiro que limita o número de versões recuperadas se a recuperação de versão estiver habilitada. O padrão é-1, que recupera todas as versões disponíveis.
Parâmetros de coleta de amostra do Microsoft Graph:
-
{ms_graph_tenant_id}:example.com -
{ms_graph_client_id}:6161a8bb-416c-3015-6ba5-01b8ca9819f6 -
{ms_graph_client_secret_protected}:AvjAvbb9akNF<pbpaFvz,mAGjgdsl>vk -
{ms_graph_start_datetime}:20180101T000000 -
{ms_graph_end_datetime}:20201231T235959 -
{ms_graph_user_principal_names}:john.smith@example.com, eve.rosella@example.com -
{ms_graph_retrievals}:TEAMS_CHANNELS, USERS_CHATS, USERS_EMAILS, SHAREPOINT -
{ms_graph_mailbox_retrievals}:MAILBOX, ARCHIVE, RECOVERABLE_ITEMS, ARCHIVE_RECOVERABLE_ITEMS
| Para obter detalhes sobre como configurar a autenticação do Microsoft Graph, consulte a documentação do Nuix no conector do Microsoft Graph em https://download.nuix.com/system/files/Nuix%20Connector%20for%20Microsoft%20Office%20365%20Guide%20v9 .0.0.pdf |
2.11.12. Adicionar evidência do SharePoint
Ao adicionar dados do SharePoint, os seguintes parâmetros de configuração devem ser definidos antes da operação Adicionar evidência.
-
{sharepoint_uri}: Um URI especificando o endereço do site. -
{sharepoint_domain}: Este parâmetro opcional define o domínio de rede do Windows da conta do servidor. -
{sharepoint_username}: O nome de usuário necessário para acessar a conta. -
{sharepoint_password}: A senha necessária para acessar a conta.
2.11.13. Adicionar Evidência da Troca
Ao adicionar dados do Exchange, os seguintes parâmetros de configuração devem ser definidos antes da operação Adicionar evidência.
-
{exchange_uri}: O caminho para o Exchange Web Service (por exemplo,https://ex2010/ews/exchange.asmx). -
{exchange_domain}: Este parâmetro opcional define o domínio de rede do Windows da conta do servidor. -
{exchange_username}: O nome de usuário necessário para acessar a conta. -
{exchange_password}: A senha necessária para acessar a conta. -
{exchange_mailbox}: A caixa de correio a receber, se for diferente do nome de usuário. -
{exchange_impersonating}: um booleano, o padrão éfalse. Essa configuração opcional instrui o Exchange a representar o usuário da caixa de correio em vez de delegar quando a caixa de correio e o nome de usuário forem diferentes. -
{exchange_mailbox_retrieval}: Uma lista contendo um ou mais dos seguintes valores:mailbox,archive,purges,deletions,recoverable_items,archive_purges,archive_deletions,archive_recoverable_items,public_folders. -
{exchange_from_datetime}: Este parâmetro opcional limita a evidência a um intervalo de datas começando na data / hora especificada. Deve ser acompanhado do parâmetro{exchange_to_datetime}. -
{exchange_to_datetime}: Este parâmetro opcional limita a evidência a um intervalo de datas que termina na data / hora especificada. Deve ser acompanhado do parâmetro{exchange_from_datetime}.
2.11.14. Adicionar evidência do Enterprise Vault
Ao adicionar dados do Enterprise Vault, os seguintes parâmetros de configuração devem ser definidos antes da operação Adicionar evidência.
-
{ev_computer}: O nome do host ou endereço IP do Enterprise Vault. -
{ev_vault}: Um ID de armazenamento do cofre. Este parâmetro opcional limita a evidência para o cofre do Enterprise Vault especificado. -
{ev_archive}: Um ID de arquivo. Este parâmetro opcional limita a evidência para o arquivo especificado do Enterprise Vault. -
{ev_custodian}: um nome. Este parâmetro opcional limita a evidência ao custodiante ou autor especificado. -
{ev_from_datetime}: Este parâmetro opcional limita a evidência a um intervalo de datas começando na data / hora especificada. Deve ser acompanhado do parâmetro{ev_to_datetime}. -
{ev_to_datetime}: Este parâmetro opcional limita a evidência a um intervalo de datas que termina na data / hora especificada. Deve ser acompanhado do parâmetro{ev_from_datetime}. -
Nota: Este parâmetro opcional limita a evidência aos resultados que correspondem à consulta do Enterprise Vault us`{ev_keywords}
o as palavras nesta string. O assunto e o conteúdo da mensagem / documento são pesquisados pelo Enterprise Vault e correspondem a qualquer palavra na string, a menos que seja especificado de forma diferente no parâmetro `{ev_flag}. -
{ev_flag}: Um valor opcional deany,all,allnear,phrase,begins,beginany,exact,exactany,ends,endsany.
O parâmetro {ev_flag} especifica como as palavras-chave são combinadas e tratadas para consultas baseadas em palavras-chave. Deve ser acompanhado pelo parâmetro {ev_keywords}, mas o padrão será any se for omitido. |
2.11.15. Adicionar evidência de S3
Ao adicionar dados de S3, os seguintes parâmetros de configuração devem ser definidos antes da operação Adicionar evidência.
-
{s3_access}: Este parâmetro especifica o ID da chave de acesso para uma conta Amazon Web Service. -
{s3_secret_protected}: Este parâmetro especifica a chave de acesso secreta para uma conta Amazon Web Service. -
Nota: Este parâmetro opcional só é válido qu`{s3_credential_discovery_boolean}
o o acesso e o segredo não são especificados. Um valor `truepermite a descoberta de credencial por propriedade do sistema. Umfalseou valor omitido tentará acesso anônimo ao intervalo especificado. -
Nota: Este parâmetro opcional especifica um depósito e, opcionalmente, um caminho para uma pasta dentro do depósito que contém a evidência a ser ingerida. Por exemplo,
mybucketname/top folder/sub folder. A omissão desse parâmetro fará com que todos os depósitos sejam adicionados à evidência. -
Nota: Este parâmetro opcional especifica um determinado ponto de extremidade do servidor Amazon Web Service. Isso pode ser usado para se conectar a um servidor regional específico, por exemplo,
https://s3.amazonaws.com.
2.11.16. Adicionar Evidência do Documentum
Ao adicionar dados do Documentum, os seguintes parâmetros de configuração devem ser definidos antes da operação Adicionar evidência.
-
{documentum_domain}: Este parâmetro opcional define o domínio de rede do Windows da conta do servidor. -
{documentum_username}: O nome de usuário necessário para acessar a conta. -
{documentum_password}: A senha necessária para acessar a conta. -
{documentum_port_number}: O número da porta para conectar. -
{documentum_query}: Uma consulta DQL. Este parâmetro opcional especifica uma consulta usada para filtrar o conteúdo. -
{documentum_server}: Este parâmetro especifica o endereço do servidor Documentum. -
Nota: Este parâmetro especifica o repositório docbase Documentum.
-
Nota: Este parâmetro opcional especifica o arquivo de propriedades Documentum.
2.11.17. Adicionar evidência do SQL Server
Ao adicionar dados do SQL Server, os seguintes parâmetros de configuração devem ser definidos antes da operação Adicionar evidência.
-
{sql_server_domain}: Este parâmetro opcional define o domínio de rede do Windows da conta do servidor. -
{sql_server_username}: O nome de usuário necessário para acessar a conta. -
{sql_server_password}: A senha necessária para acessar a conta. -
{sql_server_computer}: O nome do host ou endereço IP do SQL Server. -
{sql_server_max_rows_per_table_number}: O número máximo de linhas a retornar de cada tabela ou consulta. Este parâmetro é opcional. Isso pode economizar tempo ao processar tabelas ou resultados de consultas com muitas linhas. A seleção de quais linhas serão retornadas deve ser considerada arbitrária. -
{sql_server_instance}: Um nome de instância do SQL Server. -
{sql_server_query}: Uma consulta SQL. Este parâmetro opcional especifica uma consulta usada para filtrar o conteúdo.
2.11.18. Adicionar Evidência da Oracle
Ao adicionar dados do Oracle, os seguintes parâmetros de configuração devem ser definidos antes da operação Adicionar evidência.
-
{oracle_username}: O nome de usuário necessário para acessar a conta. -
{oracle_password}: A senha necessária para acessar a conta. -
{oracle_max_rows_per_table}: O número máximo de linhas a retornar de cada tabela ou consulta. Este parâmetro é opcional. Isso pode economizar tempo ao processar tabelas ou resultados de consultas com muitas linhas. A seleção de quais linhas serão retornadas deve ser considerada arbitrária. -
{oracle_driver_type}: O tipo de driver usado para conectar. Pode serthin,ocioukprb. -
{oracle_database}: Uma representação em string dos parâmetros de conexão. Os formatos possíveis estão documentados em https://www.oracle.com/database/technologies/faq-jdbc.html#05_04 -
{oracle_role}: A função para fazer o login, comoSYSDBAouSYSOPER. Para logins normais, deve ficar em branco. -
{oracle_query}: Uma consulta SQL. Este parâmetro especifica uma consulta usada para filtrar o conteúdo.
2.11.19. Adicionar evidências do Dropbox
Ao adicionar dados do Dropbox, os seguintes parâmetros de configuração devem ser definidos antes da operação Adicionar evidência.
-
{dropbox_auth_code_protected}: Uma string recuperada por meio de uma página da web no Dropbox que permite o acesso a uma conta. -
{dropbox_team_boolean}: um booleano que indica que uma equipe do Dropbox será adicionada às evidências. Este parâmetro opcional deve estar presente e definido comotruepara todas as invocações ao adicionar uma equipe do Dropbox às evidências. Pode ser omitido para adicionar uma conta individual do Dropbox. -
{dropbox_access_token_protected}: Uma string recuperada usando o authCode que permite o acesso a uma conta. Se o token de acesso a uma conta já for conhecido, forneça-o diretamente usando este parâmetro em vez de{dropbox_auth_code_protected}. Este código não expira a menos que o proprietário da conta revogue o acesso.
2.11.20. Adicionar evidências do Slack
Ao adicionar dados do Slack, os seguintes parâmetros de configuração devem ser definidos antes da operação Adicionar evidência.
-
{slack_auth_code_protected}: O código de autenticação temporário. Inicie uma coleta manual através do Nuix Workstation para recuperar este código. -
{slack_user_ids}: Opcionalmente, os IDs internos do Slack dos usuários aos quais a coleta deve ser limitada. -
{slack_start_datetime}: Opcionalmente, início do intervalo de datas de coleta. -
{slack_end_datetime}: Opcionalmente, o final do intervalo de datas de coleta.
2.11.21. Adicionar evidência de SSH
Ao adicionar dados de SSH, os seguintes parâmetros de configuração devem ser definidos antes da operação Adicionar evidência.
-
{ssh_username}: O nome de usuário necessário para acessar a conta. -
{ssh_password}: A senha necessária para acessar a conta. -
{ssh_sudo_password}: A senha necessária para acessar arquivos protegidos ao usar a autenticação baseada em chave SSH. -
{ssh_key_folder}: Aponta para uma pasta no sistema local que contém os pares de chaves de autenticação SSH. -
{ssh_computer}: O nome do host ou endereço IP do Enterprise Vault. -
{ssh_port_number}: O número da porta para conectar. -
Nota: A impressão digital do host esperada para o host ao qual está se conect`{ssh_host_fingerprint}
o. Se este valor não for definido, qualquer impressão digital do host será permitida, deix{ssh_host_fingerprint}`o a possibilidade de um homem no meio atacar a conexão. -
{ssh_remote_folder}: Uma pasta no host SSH a partir da qual iniciar a transferência. Este parâmetro opcional limita a evidência aos itens abaixo desta pasta inicial. -
{ssh_accessing_remote_disks_boolean}: um booleano. Quando definido comotrue, os discos remotos (por exemplo,/dev/sda1serão expostos como evidência em vez da estrutura do sistema de arquivos do sistema remoto.
2.11.22. Adicionar evidências do Twitter histórico
Ao adicionar dados do Twitter, os seguintes parâmetros de configuração devem ser definidos antes da operação Adicionar evidência.
-
{twitter_access_token}: Uma string recuperada usando o authCode que permite o acesso a uma conta. Um novo aplicativo pode ser criado em https://apps.twitter.com para gerar esse token. -
{twitter_consumer_key}: A chave do consumidor (chave de API) do aplicativo do Twitter. -
{twitter_consumer_secret_protected}: O segredo do consumidor (segredo da API) do aplicativo do Twitter. -
{twitter_access_token_secret_protected}: O segredo do token de acesso do aplicativo do Twitter.
2.11.23. Adicionar Repositório de Evidências
Esta operação adiciona um repositório de evidências ao caso. As opções típicas do Nuix podem ser usadas para personalizar as configurações do repositório de evidências.
| Esta operação não carrega dados no caso. A operação must deve ser usada para adicionar dados. |
2.11.24. Nova Varredura dos Repositórios de Evidências
Essa operação resgata todos os repositórios de evidências e adiciona novos dados ao caso.
A opção Nenhum novo comportamento de evidência pode ser usada para mostrar um aviso, acionar um erro ou concluir a execução do fluxo de trabalho se nenhuma nova evidência for descoberta.
2.11.25. Detectar e atribuir custodiantes
Esta operação detecta nomes de custódia usando uma das seguintes opções:
-
Definir custodiantes a partir dos nomes das pastas define o custodiante com o mesmo nome da pasta na profundidade do caminho especificado.
-
Definir custodiantes de nomes de pastas com nomes típicos de custódia tenta extrair nomes de custódia dos nomes das pastas, onde os nomes das pastas contêm nomes populares populares, até a profundidade máxima especificada do caminho.
-
Definir custodiantes de arquivos PST enviados por e-mail nome do remetente tenta extrair nomes de custódia do nome do remetente dos emails na pasta Enviados.
-
Definir custodiantes dos metadados do conjunto de dados define os nomes dos custodiantes definidos no campo
Custodiannos metadados do conjunto de dados.
Ao usar a opção Definir custodiantes a partir dos nomes das pastas, certifique-se de que a consulta de escopo contenha todas as pastas da raiz do caso Nuix até a profundidade da pasta definida. Por exemplo, a consulta path-guid:{evidence_guid} não é válida porque contém apenas os itens abaixo do contêiner de evidências, mas não o próprio contêiner de evidências. Por outro lado, a consulta batch-load-guid:{last_batch_load_guid} é válida porque contém todos os itens carregados naquele lote específico, incluindo o contêiner de evidências e todas as pastas nas quais serão atribuídos valores de custódia. |
As configurações desta operação também podem ser controladas usando os seguintes parâmetros:
-
{set_custodian_from_folder_name}- Ative ou desative a opção Definir custodiantes a partir dos nomes das pastas; -
{custodian_folder_level}- A profundidade da pasta correspondente à opção Definir custodiantes a partir dos nomes das pastas; -
{set_custodian_from_typical_folder_name}- Ative ou desative a opção Definir custodiantes de nomes de pastas com nomes típicos de custódia; -
{max_custodian_typical_folder_level}- A profundidade máxima da pasta correspondente à opção Definir custodiantes de nomes de pastas com nomes típicos de custódia. -
{set_custodian_from_pst}- Ative ou desative a opção Definir custodiantes de arquivos PST enviados por e-mail nome do remetente;
Os parâmetros para ativar ou desativar as opções podem ser definidos como true, yes ou Y para ativar a opção e para qualquer outra coisa para desativar a opção. |
2.11.26. Excluir itens
Esta operação exclui itens do caso que correspondem a critérios de pesquisa específicos.
As entradas podem ser adicionadas à lista de exclusões usando os botões + e - ou carregadas da lista de exclusões de um arquivo CSV ou TSV.
As exclusões também podem ser carregadas de um arquivo durante a execução do fluxo de trabalho, usando a opção Arquivo de exclusões.
| Os parâmetros podem ser usados no caminho to, para selecionar um arquivo de exclusão dinamicamente com base nos requisitos do fluxo de trabalho. |
2.11.27. Incluir itens
Esta operação inclui itens excluídos anteriormente.
Itens excluídos que estão fora da consulta de escopo não serão incluídos.
Os itens pertencentes a todas as categorias de exclusão podem ser incluídos ou, alternativamente, os nomes de exclusão podem ser especificados usando os botões + e - ou carregados de um arquivo de texto.
2.11.28. Adicionar ao conjunto de itens
Esta operação adiciona itens a um conjunto de itens existente ou cria um novo conjunto de itens se um com o nome especificado não existir.
| Se a lista de itens a serem adicionados a um conjunto de itens estiver vazia, o primeiro item raiz será adicionado temporariamente como item de preenchimento para ajudar a criar o lote do conjunto de itens. |
Além das opções padrão de desduplicação do Nuix, o Automate Workflow oferece dois métodos adicionais de desduplicação:
-
ID da mensagem: Usa a propriedade Email Message-ID do primeiro campo não vazio: Message-ID, Message-Id, Mapi-Smtp-Message-Id, X-Message-ID, X-Mapi-Smtp-Message-Id, Mapi -X-Id da mensagem, Mapi-X-Smtp-Id da mensagem, PR_INTERNET_MESSAGE_ID.
-
ID da mensagem/MD5: Usa a propriedade email Message-ID, se disponível, ou alternativamente o MD5.
-
Chave de Pesquisa Mapi: Usa a propriedade MAPI Search Key do primeiro campo não em branco: Mapi-Search-Key, X-Mapi-Search-Key.
Ao executar uma desduplicação por família com base no ID da Mensagem ou na Chave de Pesquisa MAPI, serão criados dois lotes: um para itens de nível superior (com sufixo TL) e outro para itens de nível não superior (com o sufixo NonTL). Para consultar itens originais em ambos os lotes, use a sintaxe: + item-set-batch:("{last_item_set_originals_batch} TL" OR "{last_item_set_originals_batch} NonTL") |
2.11.29. Remover do conjunto de itens
Esta operação remove itens, se presentes, do conjunto de itens especificado.
2.11.30. Excluir conjunto de itens
Esta operação exclui o conjunto de itens especificado.
2.11.31. Adicionar itens à lista de resumo
Esta operação adiciona itens a uma lista de resumo com a opção de criar a lista de resumo, caso ela não exista.
Uma lista de resumo pode ser criada em um dos três locais da lista de resumo:
-
Pasta: Local do caso, equivalente à seguinte subpasta da pasta do caso
Stores\User Data\Digest Lists -
Usuário: localização do perfil do usuário, equivalente a
%appdata%\Nuix\Digest Lists -
Computador Local: localização do perfil do computador, equivalente a
%programdata%\Nuix\Digest Lists
2.11.32. Remover itens da lista resumida
Esta operação remove itens, se presentes, da lista de resumo especificada.
2.11.33. Gerenciar listas de resumo
Esta operação executa uma operação nas duas listas de resumos especificadas e, em seguida, salva a lista de resumos resultante no local especificado.
Lista de operações:
-
Adicionar: produz hashes presentes na lista de resumo A ou na lista de resumo B;
-
Subtrair: produz hashes presentes na lista de resumo A, mas não na lista de resumo B;
-
Intersecção: produz hashes presentes na lista de resumo A e na lista B.
2.11.34. Excluir lista de resumo
Esta operação exclui a lista de resumos especificada, se existir, de qualquer um dos locais da lista de resumos especificados.
2.11.35. Importação da lista de resumo
Essa operação importa um arquivo de texto ou hash Nuix no local especificado da lista de resumo.
Formatos de arquivo aceitos:
-
(.txt, .csv, .tsv)(.txt, .csv, .tsv)Se o arquivo contiver uma única coluna, espera-se que os hashes sejam fornecidos um por linha. Se o arquivo contiver várias colunas, é esperada uma coluna com o nome do cabeçalhoMD5 -
Nuix hash
(.hash)arquivo
2.11.36. Exportação da lista de resumo
Esta operação exporta uma lista de resumo do Nuix para o local especificado como um arquivo de texto. O arquivo de texto resultante contém uma coluna sem cabeçalho e um hash por linha.
2.11.37. Buscar e Marcar
Esta operação identifica itens do caso que correspondem a critérios de pesquisa específicos.
Opções:
-
Identifique famílias: Se selecionado, a operação buscará por itens de família e itens de nível superior de itens com ocorrências para cada palavra-chave.
-
Identificar descendentes Se selecionada, a operação buscará descendentes de itens com ocorrências para cada palavra-chave.
-
Identifique hits exclusivos ("Exclusivos") oSe selecionada, a operação buscará por hits exclusivos (itens que atingem apenas uma palavra-chave), itens de família exclusivos (itens para os quais toda a família só atinge uma palavra-chave) e itens de nível superior exclusivos (também itens para os quais o toda a família bateu em apenas uma palavra-chave).
-
Tamanho da computação Se selecionado, a operação calculará o tamanho auditado para hits e itens de família.
-
Calcular totais Se selecionado, a operação calculará as contagens totais e o tamanho de todas as palavras-chave.
-
Divisão por custodiante Se selecionado, as buscas e relatórios serão realizados para cada guardião individual, bem como para itens sem guardiões atribuídos.
-
Resultados do registro Se selecionado, as contagens de pesquisa serão impressas no Log de Execução.
2.11.38. Marcações
Se a opção is for selecionada, os itens serão marcados com a seguinte estrutura de tags:
-
Tag prefix-
Exitos
-
: Itens que correspondem à consulta de pesquisa.
-
-
Famílias
-
Keyword tag: Famílias de itens que correspondem à consulta de pesquisa.
-
-
TopLevel
-
Nota: Itens de nível superior dos itens que correspondem à consulta de pesquisa.
-
-
Descendentes
-
Nota: Descendentes de itens que correspondem à consulta de pesquisa.
-
-
ExclusiveHits
-
Keyword tag: itens que atingem exclusivamente a palavra-chave.
-
-
ExclusivoFamílias
-
Keyword tag: famílias que atingem exclusivamente a palavra-chave.
-
-
ExclusiveTopLevel
-
Nota: itens de nível superior de famílias que atingem exclusivamente a palavra-chave.
-
-
Se a opção is for selecionada, todas as tags anteriores que começam com Prefixo da tag serão removidas, independentemente do escopo da pesquisa, de acordo com Remover o método de tags anteriores.
| Esta operação pode ser usada com uma lista vazia de palavras-chave e com o Remova as tags anteriores com esse prefixo ativado, para remover as tags removidas anteriormente aplicadas por esta operação ou de outra maneira. |
O método ren renomeia Tag prefix para Automate|SearchAndTagOld|Tag prefix_{datetime}. Embora esse método seja o jejum, depois de executar a operação Pesquisar e tag várias vezes, ele pode criar um gr*Remova as tags anteriores com esse prefixo*e número de tags, o que pode desacelerar as atividades manuais no Nuix Workbench.
2.11.39. Comunicando
Esta opção gera um relatório de pesquisa em formato Excel, com base em um arquivo de modelo.
| Consulte Processing Report para obter informações sobre como usar um modelo personalizado. |
2.11.40. Palavras-chave
As palavras-chave podem ser especificadas manualmente na interface do editor de fluxo de trabalho ou carregadas de um arquivo.
Os seguintes formatos de arquivo são suportados:
-
.csv: Arquivo separado por vírgulas, com a primeira coluna contendo o nome ou tag da palavra-chave e a segunda coluna contendo a consulta da palavra-chave. Se a primeira linha for um cabeçalho com os valores exatostagequery, a linha será lida como um cabeçalho. Caso contrário, será lido como uma linha regular com uma palavra-chave e um nome de tag. -
.tsv,.txt: arquivo separado por tabulação, com a primeira coluna contendo o nome ou tag da palavra-chave e a segunda coluna contendo a consulta da palavra-chave. -
.json: arquivo JSON, exportado da janela Nuix Search and Tag, ou contendo uma lista de pesquisas, com cada pesquisa contendo uma tag e uma consulta.
Exemplo de arquivo JSON:
{
"searches": [
{
"tag": "KW 01",
"query": "Plan*"
},
{
"tag": "KW 02",
"query": "\"Confidential Data\" OR Privilege"
}
]
}
Como alternativa, é possível fornecer o caminho para um arquivo de palavras-chave que será carregado quando o fluxo de trabalho for executado.
2.11.41. Pesquisar e atribuir custodiantes
Esta operação atribui custodiantes a itens do caso que correspondem a critérios de pesquisa específicos.
As entradas podem ser adicionadas à lista de custódia/consulta usando os botões + e - ou carregadas de um arquivo CSV ou TSV.
2.11.42. Marcar itens
Esta operação procura itens na consulta de escopo.
Em seguida, ele corresponde aos itens a serem processados como itens no escopo ou duplicatas dos itens no escopo, como indivíduos ou por família.
O nome da tag é aplicado aos itens correspondentes (Partidas), suas famílias (Todas as famílias), seus descendentes (Todos os Descendentes), itens correspondentes e seus descendentes (Jogos e Descendentes) ou aos itens de nível superior de suas famílias (De nível superior).
2.11.43. Desmarcar itens
Esta operação remove as tags dos itens na consulta de escopo.
Opcionalmente, se as tags estiverem vazias após a desmarcação dos itens no escopo, o método remove poderá ser configurado para excluir as tags.
Qu`Reporto a opção para remover as tags que começam com um prefixo é especificada, as tags com o nome do prefixo e suas subtags são removidas. Por exemplo, se o prefixo estiver definido como `Report, as tags Report e Report|DataA serão removidas, mas não Reports.
2.11.44. Itens de correspondência
Esta operação lê uma lista de valores MD5 e / ou GUID do arquivo de texto especificado. Os itens no escopo com os valores MD5 e / ou GUID correspondentes dos itens no escopo são marcados com o valor fornecido no campo Tag.
2.11.45. Filtro de período
Esta operação filtra itens na consulta de escopo para itens dentro do período especificado usando a data do item, a data do item de nível superior ou uma lista de propriedades da data.
Em seguida, aplica uma tag ou exclusão semelhante a Tag Items.
Use \* como uma propriedade de data para especificar todas as propriedades de data. |
As datas para este intervalo podem ser especificadas usando os parâmetros {filter_before_date} e {filter_after_date}. |
2.11.46. Encontrar itens com palavras
Esta operação analisa o texto dos itens no escopo e determina se o item é responsivo se o número de palavras respeitar os critérios mínimo e máximo de contagem.
As palavras são extraídas dividindo o texto de cada item usando o regex fornecido.
Exemplo de regex para extrair palavras que contêm apenas letras e números:
[^a-zA-Z0-9]+
Exemplo de regex para extrair palavras contendo apenas letras:
[^a-zA-Z]+
Exemplo de regex para extrair palavras contendo qualquer caractere, separado por um caractere de espaço em branco (ou seja, um espaço, uma guia, uma quebra de linha ou um feed de formulário)
\s+
2.11.47. Filtrar e-mails
Esta operação realiza pesquisas avançadas de e-mails, com base nos nomes de destinatários, endereços de e-mail e nomes de domínio.
O recurso pop preenche a lógica de filtragem com base em um dos seguintes cenários:
-
Etiquetar emails apenas internos
-
Marcar comunicações apenas entre dois indivíduos
-
Marcar comunicações dentro de um grupo
2.11.48. Adicionar itens à execução de cluster
Esta operação adiciona itens a uma Execução de Cluster existente ou cria uma nova Execução de Cluster, se uma com o nome especificado não existir.
Ao executar esta operação, o progresso mostrará apenas 0.01% e será atualizado quando a operação terminar. |
2.11.49. Detectar emails implícitos em anexos
Esta operação deve ser usada em conjunto com a operação Cluster Run do Nuix. Primeiro, gere um Cluster Run usando o Nuix Workstation e, em seguida, execute a operação Detect Attachment-Implied Emails para complementar a identificação de emails inclusivos e não inclusivos.
Se nenhum nome de execução de cluster for especificado, a operação processará todas as execuções de cluster existentes.
Os itens serão marcados de acordo com a seguinte estrutura de tags:
-
Rosqueamento
-
Nome da execução do cluster
-
Itens
-
Inclusive
-
Anexo Inferido
-
Singular
-
Ignorado
-
Ponto final
-
-
Não Inclusivo
-
-
Todas as Famílias
-
Inclusive
-
Anexo Inferido
-
Singular
-
Ignorado
-
Ponto final
-
-
Não Inclusivo
-
-
-
Para selecionar todos os dados, exceto os e-mails não inclusivos, use a consulta + tag:"Threading|Cluster run name|All Families|Inclusive|*" |
| Esta operação deve ser usada em execuções de cluster que contenham apenas emails de nível superior, agrupados usando threads de email. Caso contrário, a operação produzirá resultados inconsistentes. |
2.11.50. Recarregar itens
Esta operação recarrega da fonte os itens correspondentes à consulta de escopo.
| Esta operação pode ser usada para descriptografar arquivos protegidos por senha qu*Excluir inacessível criptografado*o precedida por uma operação de Configuração que define senhas e se a opção is for usada. |
| Se a consulta de escopo resultar em 0 itens, o banco de dados de casos do Nuix não será fechado, o que causa problemas ao tentar adicionar mais dados no futuro. Como solução alternativa, use um getO anterior para ignorar a operação Recarregar itens se a consulta de escopo resultar em 0 itens. Veja o exemplo de script Python abaixo: |
# Set scope_query to the scope query of the Reload Items operation
items_count = current_case.count(scope_query);
print("Reload Items operation scope count: %s" %items_count)
if items_count == 0:
# Skip next operation
current_operation_id = workflow_execution.getCurrentOperationId()
workflow_execution.goToOperation(current_operation_id + 2)
| Ao descriptografar um documento, o Nuix Engine mantém o item originalmente criptografado no lugar e cria um descendente com o conteúdo descriptografado. Nesta situação, ao usar a opção Exclua documentos criptografados descriptografados com sucesso, o item originalmente criptografado é excluído e apenas a versão descriptografada permanece. Observe que isso afeta apenas os documentos criptografados (como Word ou PDF) e não afeta os arquivos zip criptografados. |
2.11.51. Substituir itens
Esta operação substitui itens de caso por arquivos nomeados com os valores MD5 ou GUID dos itens de origem.
2.11.52. Excluir itens
Esta operação exclui itens na consulta de escopo e seus descendentes.
| Isso é irreversível. Os itens excluídos são removidos do caso e não serão mais exibidos nas pesquisas. Todas as anotações associadas também serão removidas. |
2.11.53. Substituir texto
Esta operação substitui o texto armazenado para itens que correspondem à consulta de escopo, se um texto alternativo for fornecido em um arquivo nomeado com base nos valores MD5 ou GUID dos itens.
| Esta operação pode ser usada após uma operação de OCR Nuix interrompida, para aplicar os resultados parciais da operação de OCR, copiando todos os arquivos de texto do cache do OCR para uma pasta específica e apontando a operação Substituir Texto nessa pasta. |
| Esta operação pesquisa somente arquivos na raiz da pasta especificada e ignora os arquivos das subpastas. |
2.11.54. Remover texto
Esta operação remove o texto armazenado para itens correspondentes à consulta de escopo.
| Esta operação pode ser usada para remover texto dos itens para os quais o Nuix retirou o texto durante o carregamento, mas onde nenhum texto significativo foi extraído. |
2.11.55. Redigir texto
Esta operação executa pesquisas regex no texto dos itens no escopo e edita todas as correspondências.
O Arquivo de definição de redação pode ser um arquivo de texto com uma lista de expressões regulares ou uma coluna de arquivo separada por tabulação Name and Regex.
2.11.56. Itens de OCR
Esta operação executa o OCR usando o Nuix OCR nos itens identificados pela consulta de escopo, usando as opções padrão do Nuix
A partir do Nuix versão 8, as configurações de OCR não podem ser fornecidas manualmente e, em vez disso, um perfil de OCR deve ser usado.
A opção Perfil diferenciado será aplicada ao usar um perfil de OCR com um diretório de cache personalizado. Nesse caso, o ID de trabalho curto será adicionado como um subdiretório ao diretório de cache personalizado para evitar conflitos ao executar vários trabalhos ao mesmo tempo.
2.11.57. Campo Gerar Custódios Duplicados
Esta operação irá gerar um arquivo CSV com a lista de custodiados duplicados no caso. Veja Generate Duplicate Fields para uma descrição das opções disponíveis.
| A execução sem o DocIDs selecionado no Campos originais melhorará significativamente o tempo de execução. |
| Esta operação consome menos memória que a operação Gerar campos duplicados. |
2.11.58. Gerar campos de domínio
Esta operação extrairá domínios de email de itens no Escopo.
Os campos de domínio extraídos resultantes podem ser salvos em um arquivo CSV e / ou atribuídos como metadados personalizados aos itens em Escopo.
2.11.59. Gerar campos duplicados
Esta operação identificará todos os itens que correspondem à consulta Atualizar escopo de itens e que têm duplicatas na consulta Escopo de pesquisa maior.
A operação suporta dois métodos de avaliação:
-
Nota: Este método usa uma gr*Intensivo de memória*e quantidade de memória em casos gr*Intensivo de memória*es, mas requer computação reduzida.
-
Compute-Intensive: Esta operação realiza um grande número de cálculos em casos grandes, mas requer uma quantidade reduzida de memória.
Os itens duplicados são identificados com base nos seguintes níveis de duplicação:
-
Como indivíduos: itens duplicados no nível do item.
-
Pela família: Itens duplicados no nível da família.
-
Por item de nível superior: Apenas os itens de nível superior dos itens no escopo duplicados são identificados.
| Ao usar a opção de desduplicação Por item de nível superior, certifique-se de que as famílias fornecidas estejam completas no escopo de pesquisa e atualização. |
Qu_campos duplicados_o um item no escopo do item Atualizar com duplicados é identificado, esta operação gera campos duplicados captur_campos duplicados_o as propriedades dos itens duplicados. Os seguintes campos duplicados são suportados:
-
Custodiantes
-
Nomes de itens
-
Datas do item
-
Caminhos
-
Marcações
-
Sub Tags
-
GUIDs
-
GUIDs pai
-
GUIDs pai de nível superior
-
DocIDs
-
DocID de família mais baixo
-
Perfil de metadados
| Ao selecionar a opção,, todos os campos encontrados no perfil de metadados especificados serão computados. |
A opção Inclusão de resultados determina se o valor do item original atual deve ser adicionado ao campos duplicados. Por exemplo, se o documento original tiver custódia Smith e houver dois itens duplicados com custodiantes Jones e Taylor, o campo contain conterá valores Jones; Taylor enquanto o campo contain conterá valores Jones; Taylor; Smith.
O campos duplicados resultante pode ser salvo em um arquivo / e / ou pode ser atribuído como metadados personalizados aos itens do Atualizar escopo de itens.
Para obter ajuda com os formatos de data, consulte Joda Pattern-based Formatting para obter um guia para formatação de data baseada em padrões.
2.11.60. Gerar imagens impressas
Esta operação gera imagens para os itens no escopo usando o perfil de imagem especificado.
| As opções Marcar itens com falha como têm o mesmo comportamento da operação Exportação Legal. |
2.11.61. Preencher armazenamento binário
Esta operação preenche o armazenamento binário com os binários dos itens no escopo.
2.11.62. Atribuir metadados personalizados
Essa operação adiciona metadados personalizados aos itens no escopo. É necessário um arquivo CSV ou TSV.
O cabeçalho do arquivo deve começar com GUID, ItemName, DocID ou Key, seguido pelos nomes dos campos de metadados a serem atribuídos.
Ao usar ItemName, os metadados serão atribuídos a todos os itens no caso Nuix que possuem esse Nome de item. Isso pode envolver a atribuição das mesmas informações de metadados a vários itens, se eles tiverem o mesmo nome. |
Ao usar Key, a correspondência dos itens será tentada com GUID, ItemName ou DocID, nesta ordem. |
Cada linha subsequente corresponde a um item que precisa ser atualizado, com a primeira coluna contendo o GUID, ItemName ou DocID do item e as colunas restantes contendo os metadados personalizados.
Exemplo de arquivo de metadados CSV simples:
DocID,HasSpecialTerms,NumberOfSpecialTerms DOC00001,Yes,5 DOC00002,Yes,1 DOC00003,No,0 DOC00004,Yes,7
Para atribuir metadados personalizados de um tipo específico, adicione uma segunda linha de cabeçalho com o seguinte formato:
-
A primeira coluna:
Type, indicando que esta linha é um cabeçalho que especifica os tipos de campo -
Para cada coluna subsequente, o tipo dos dados, das seguintes opções:
-
Texto
-
Data
-
boleano
-
inteiro
-
Flutuador
-
Exemplo de arquivo de metadados CSV com tipos:
ItemName,DateRecorded,SampleThreshold Type,Date,Float file1.txt,2020-01-01,0.5 file2.txt,2021-01-01,1.5 Email.eml,2022-01-01,-7
2.11.63. Atribuir Metadados de Conjunto de Dados
Esta operação atribui os campos definidos no conjunto de dados, como metadados personalizados ou como tags.
2.11.64. Associar metadados do Google Vault
Esta operação analisa os arquivos XML e CSV exportados do Google Vault, extrai os registros de metadados disponíveis (consulte https://support.google.com/vault/answer/6099459?hl=en#mailxml) e os associa como metadados personalizados a os itens correspondentes no caso Nuix.
A correspondência entre os registros de metadados do Google Vault e os itens no caso Nuix é realizada da seguinte maneira:
-
e-mail do Google
-
Ao analisar arquivos de metadados XML, a correspondência é realizada usando o campo de metadados
MBOX From Line -
Ao analisar arquivos de metadados CSV, a correspondência é realizada usando os campos de metadados
Mapi-Smtp-Message-IdeMessage-ID.
-
-
Documentos Google
-
Ao analisar arquivos de metadados XML, a correspondência é realizada usando o nome do arquivo
-
2.11.65. Remover metadados personalizados
Esta operação remove os metadados personalizados especificados dos itens no escopo.
2.11.66. Adicionar itens ao conjunto de produção
Esta operação adiciona itens que correspondem à consulta de escopo a um conjunto de produção.
Ao adicionar itens a um conjunto de produção, as seguintes ordens de classificação podem ser aplicadas:
-
Sem classificação: Os itens não são classificados.
-
Data de documento de nível superior (crescente): os itens são classificados de acordo com a data do item de nível superior em cada família, em ordem crescente.
-
Data de item de nível superior (descendente): os itens são classificados de acordo com a data do item de nível superior em cada família, em ordem decrescente.
-
Ordem de evidência (crescente): os itens são classificados pelo nome do caminho efetivo (semelhante à classificação do Windows Explorer), em ordem crescente.
-
Campos de palavras-chave: os itens são classificados por uma combinação de campos em ordem crescente ou decrescente.
-
Perfil de metadados: Os itens são classificados pelos campos em um perfil de metadados em ordem crescente.
| Para obter uma ordem de classificação equivalente ao Nuix Engine Ordem de classificação padrão, selecione o método de classificação Automatizar Personalizar com o campo Posição na ordem Ascendente. |
A numeração do item pode ser realizada no nível ID do documento ou ID do documento de família. Neste último caso, o item de nível superior de cada família receberá um ID do documento de acordo com o prefixo e os dígitos de numeração definidos. Todos os descendentes da família receberão uma ID do documento igual à do item de nível superior e um sufixo indicando a posição do descendente na família.
O número inicial do ID do documento, o número de dígitos e o número de dígitos da família podem ser especificados usando parâmetros personalizados:
-
{docid_start_numbering_at}- Selecione a opção Comece a numerar em na configuração da operação Adicionar itens ao conjunto de produção para que este parâmetro tenha efeito; -
{docid_digits} -
{docid_family_digits}- Selecione o esquema de numeração ID do documento de família na configuração da operação Adicionar itens ao conjunto de produção para que este parâmetro tenha efeito;
Ao usar um esquema de numeração de página, o parâmetro {group_family_items} pode ser usado para controlar o agrupamento de documentos da mesma família, e o parâmetro {group_document_pages} pode ser usado para controlar o agrupamento de páginas do mesmo documento. esses parâmetros podem ser definidos para true ou false.
2.11.67. Excluir Conjunto de Produção
Esta operação exclui Tudo ou Específico conjuntos de produção.
2.11.68. Exportação Legal
Esta operação executa uma exportação legal, usando as opções padrão do Nuix.
| Use as opções Perfil de geração de imagem e Perfil de produção para controlar os parâmetros das imagens exportadas durante uma exportação legal. |
A opção will dividirá toda a exportação (incluindo os arquivos de carregamento e os componentes de exportação) em várias partes do tamanho máximo especificado e incluirá itens da família.
A opção export exportará os emails nativos para o formato selecionado.
A opção Esquema de exportação pode ser usada para controlar se os anexos são separados dos emails ou não.
2.11.69. Exportar para Relatividade
| Este módulo de produto só pode ser usado por terceiros com licenças válidas para Relativity ou Relativity One, produtos da Relativity ODA LLC. A Relativity ODA LLC não testa, avalia, endossa ou certifica este produto. |
Ao selecionar Tipo de exportação Relatividade, o arquivo de carga será carregado na Relativity durante a operação de exportação legal. Se a exportação for dividida em várias partes, cada parte será carregada assim que estiver disponível e as partes anteriores terminarão o upload.
As seguintes configurações são necessárias:
-
Arquivo de mapeamento de campos: Caminho para o arquivo JSON mapeando o perfil Nuix Metadata para os campos do espaço de trabalho Relativity. Se um arquivo de mapeamento não for fornecido, os campos no loadfile serão mapeados para campos com os mesmos nomes no espaço de trabalho Relativity.
| Veja mais informações sobre como criar um arquivo de mapeamento na operação Relativity Loadfile Upload. |
| Esta operação carrega apenas arquivos nativos, texto e metadados para o Relativity. Para carregar imagens, além desta operação, use a operação Relativity Images Overlay. |
2.11.70. Exportação de subconjunto de caso
Esta operação exportará os itens no escopo em um subconjunto de caso sob os parâmetros especificados.
2.11.71. Exportar itens
Esta operação exporta itens para o specified especificado.
A opção will exportará itens para Diretório único ou Recrie a estrutura de diretórios dos dados originais.
A opção export exportará os emails nativos para o formato selecionado.
Por padrão, apenas os itens exportados são rastreados no banco de dados de utilização. Ao selecionar a opção Rastrear descendentes de materiais de itens exportados em dados de utilização, além do rastreamento dos itens que são exportados, também são rastreados os materiais descendentes desses itens.
2.11.72. Exportação de imagem lógica
Esta operação exportará os itens no escopo em um contêiner Nuix Logical Image®.
2.11.73. Exportação de Metadados
Esta operação exportará os metadados dos itens correspondentes à consulta do escopo, usando o perfil de metadados selecionado.
As seguintes ordens de classificação podem ser aplicadas:
-
Sem classificação: Os itens não são classificados.
-
Data de documento de nível superior (crescente): os itens são classificados de acordo com a data do item de nível superior em cada família, em ordem crescente.
-
Data de item de nível superior (descendente): os itens são classificados de acordo com a data do item de nível superior em cada família, em ordem decrescente.
-
Ordem de evidência (crescente): os itens são classificados da mesma maneira em que aparecem na árvore de evidências, em ordem crescente.
| A opção does não oferece vantagens de desempenho - todos os itens correspondentes à consulta do escopo são processados e os itens que excedem a profundidade máxima do caminho não são enviados para o arquivo resultante. |
2.11.74. Exportação de lista de palavras
Esta operação exporta uma lista de palavras dos itens que correspondem à consulta de escopo.
As palavras são extraídas executando dividindo o texto de cada item usando o regex fornecido.
Exemplo de regex para extrair palavras que contêm apenas letras e números:
[^a-zA-Z0-9]+
Exemplo de regex para extrair palavras contendo qualquer caractere, separado por um caractere de espaço em branco (ou seja, um espaço, uma guia, uma quebra de linha ou um feed de formulário)
\s+
Palavras menores que o mínimo ou maior que o comprimento máximo fornecido são ignoradas.
2.11.75. Processando Relatório
Esta operação gera um relatório de processamento em formato Excel, com base em um arquivo de modelo.
Se um modelo personalizado não for especificado, a operação usará o modelo Automate padrão. Para criar um modelo personalizado, primeiro execute a operação Processing Report com as configurações padrão. Em seguida, faça uma cópia do arquivo de modelo mais recente. Ao executar em uma conta de serviço, o modelo fica localizado em %userprofile%\.nuix\Workflow\Templates, e ao executar na conta Local System, o modelo fica localizado em C:\Windows\System32\config\systemprofile\.nuix\Workflow\Templates. Em seguida, modifique o fluxo de trabalho para apontar para o arquivo de modelo personalizado recém-criado. |
Etapas de processamento
Um estágio de processamento consiste em um subconjunto de itens do caso, identificados por uma consulta Nuix e com um método associado para calcular o tamanho. Os seguintes métodos de tamanho estão disponíveis:
-
Tamanho auditado: O tamanho auditado do Nuix.
-
Tamanho do arquivo O tamanho do arquivo Nuix.
-
Tamanho do texto: O tamanho do texto.
-
Auditado + tamanho do texto: O tamanho auditado mais o tamanho do texto.
-
Auditado (anexos 2x): O tamanho auditado, com o tamanho dos anexos incluído duas vezes. Pode ser uma estimativa do tamanho de uma exportação legal com a opção de deixar anexos em e-mails.
-
Auditado (anexos 2x) + tamanho do texto O tamanho auditado, com o tamanho dos anexos incluído duas vezes, mais o tamanho do texto.
-
Tamanho do resumo: O tamanho do resumo. Se o item não tiver um resumo, volte ao tamanho do arquivo. Se o item não for um arquivo, volte ao tamanho auditado.
As opções padrão desta operação geram um relatório com um número predefinido de estágios:
-
Dados de origem
-
Extraído
-
Material
-
Publicar exclusões
-
Pós-deduplicação
-
Exportar
Visualizações
As visualizações são usadas para definir como os dados são exibidos em uma planilha de relatório, incluindo as colunas verticais e horizontais, o estágio de processamento ao qual a visualização se aplica, a opção de calcular a contagem e / ou tamanho dos itens e a unidade de tamanho.
As opções padrão incluem várias visualizações predefinidas, com cada visualização correspondendo a uma planilha no relatório do Excel:
-
Visão geral do processamento
-
Itens materiais pelo custodiante
-
Exportar itens por custodiante
-
Itens materiais por ano
-
Exportar itens por ano
-
Itens de material por tipo
-
Exportar itens por tipo
-
Itens de material por extensão
-
Exportar itens por extensão
-
Imagens de material por dimensões
-
Exportar imagens por dimensões
-
Itens irregulares
-
Exclusões por tipo
| Por padrão, os tamanhos são relatados em Gibibytes (GiB). 1 GiB = 1.024 x 1.024 x 1.024 bytes = 1.073.741.824 bytes. A unidade de tamanho pode ser alterada no painel de opções de visualização. |
Cada estágio e visualização pode ser personalizado, removido e novos estágios e visualizações podem ser adicionados.
Se o parâmetro {report_password} for definido, o arquivo Excel resultante será criptografado com a senha fornecida. |
2.11.76. Gerar relatório de processamento de vários casos
A opção Casos adicionais pode ser usada para gerar um único relatório a partir de vários casos, especificando a localização dos casos adicionais que precisam ser considerados. Os itens são avaliados primeiro no caso do fluxo de trabalho principal e depois nos casos adicionais, na ordem fornecida. Se um item existir em vários casos com o mesmo GUID, somente a primeira instância do item será relatada.
| Ao usar a opção Casos adicionais para relatar um subconjunto de casos, bem como o caso original, execute o relatório do subconjunto de casos e inclua o caso original na lista Casos adicionais. Isso terá o efeito de relatar primeiro os itens do subconjunto de caso e ignorar as cópias idênticas desses itens do caso original. |
2.11.77. Estatísticas de caso de digitalização
Esta operação verifica o caso em busca de contêineres de evidências, custodiantes, idiomas, marcas e intervalos de datas (por mês), conjuntos de itens, conjuntos de produção e exclusões, e para cada um desses rastreia a contagem de todos os itens, contagem e tamanho dos itens auditados , e contagem e tamanho de itens físicos.
O arquivo JSON resultante é armazenado na pasta do caso Stores\Statistics e enviado ao Automate Scheduler para relatórios centralizados.
As seguintes opções adicionais podem ser configuradas:
-
História de Caso: Permite a varredura do histórico do caso para extrair sessões, operações e volumes.
-
Tamanho da computação: Os métodos usados para calcular o tamanho dos itens.
-
Duração máxima da varredura (segundos): Interrompa a verificação de mais detalhes do caso após esse tempo.
-
Exportação nativa: inclui filhos de material não exportado: Se selecionado, quando um evento de exportação nativa é detectado no histórico do caso, os filhos materiais dos itens exportados também são incluídos no escopo da exportação.
-
Forçar digitalização de caso digitalizado anteriormente: Verifique novamente um caso, mesmo que ele tenha sido verificado anteriormente e nenhum novo evento tenha sido detectado.
-
Não pule as sessões do Automate Engine: Por padrão, as sessões executadas pelo Automate Engine são ignoradas durante a varredura do histórico de casos. Se habilitada, esta opção também varrerá as sessões executadas pelo Automate Engine. Use esta opção ao reconstruir o banco de dados de utilização do Scheduler.
2.11.78. Relatório de contagem de tamanho de árvore
Esta operação irá gerar um relatório em árvore, incluindo o tamanho e a contagem de itens no escopo.
Se os primeiros elementos do caminho dos itens não devem ser incluídos no relatório, como o nome do contêiner de evidência e o nome do arquivo de evidência lógica, aumente o valor da opção Omitir prefixos de caminho.
A opção limits limita o número de itens aninhados para os quais o relatório será gerado.
| Consulte Processing Report para obter informações sobre como usar um modelo personalizado e unidades de tamanho. |
2.11.79. Mudar licença
Esta operação libera a licença usada pelo Nuix Engine ao executar um trabalho no Automate Scheduler e, opcionalmente, adquire uma licença diferente dependendo da opção de origem da licença:
-
Nenhum: Não adquire uma licença Nuix e executa as demais operações no fluxo de trabalho sem acesso ao caso Nuix.
-
NMS: Adquire uma licença Nuix do servidor NMS especificado.
-
CLS: Adquire uma licença Nuix do servidor Nuix Cloud License.
-
Dongle: Adquire uma licença Nuix de um Dongle USB conectado ao Engine Server.
-
Padrão do mecanismo: Adquire uma licença Nuix da fonte padrão da qual o Engine adquiriu a licença Nuix original quando o trabalho foi iniciado.
Ao especificar um Filtro, o texto fornecido será comparado com o nome e a descrição da licença Nuix disponível.
Ao especificar uma contagem de Trabalhadores, será selecionado o número padrão de trabalhadores que o mecanismo usou originalmente.
| Esta operação não é suportada para fluxos de trabalho executados no Automate Workflow. |
2.11.80. Fechar case
Esta operação fecha o caso Nuix atualmente aberto.
Se a opção Fechar log de execução estiver selecionada, o Log de Execução armazenado na pasta do caso Stores\Workflow será fechado e nenhuma outra atualização será feita no arquivo de log, a menos que o caso seja reaberto.
2.12. Nuix Enriquecer
Essas operações configuram a conexão com o Nuix Enrich e analisam itens do caso Nuix com o Nuix Enrich.
2.12.1. Configurar conexão Nuix Enrich
Esta operação define a configuração usada para conectar ao serviço Nuix Enrich.
O ID do serviço Nuix Enrich deve ser definido como um parâmetro do tipo Serviço Nuix Enrich. Durante o envio do fluxo de trabalho no Scheduler, o usuário será solicitado a selecionar o Nuix Enrich Service e autenticar-se no serviço, se necessário.
2.12.2. Enriquecer Itens
Esta operação envia os itens no escopo para o Nuix Enrich para enriquecimento e aplica os resultados aos itens no caso do Nuix Engine.
2.13. Automatizar
Essas operações são nativas do Automate e são usadas para configurar o fluxo de trabalho, bem como interagir com terceiros arbitrários usando APIs, scripts e comandos externos.
2.13.1. Login
Isso registra um log definido pelo usuário e, opcionalmente, imprime o log no log de execução durante a execução.
2.13.2. Placeholder
Esta operação pode ser usada para separar seções do fluxo de trabalho ou como uma âncora para saltar ao saltar para uma seção específica na execução do fluxo de trabalho.
2.13.3. Configurar parâmetros
Esta operação permite que os usuários definam parâmetros personalizados que existirão durante o escopo da execução do fluxo de trabalho. Parâmetros personalizados podem ser definidos manualmente ou carregados de um arquivo CSV ou TSV, junto com um valor, descrição e regex de validação.
Existem dois tipos de parâmetros que podem ser definidos nesta operação: Parâmetros estáticos e Parâmetros do usuário. Parâmetros estáticos são parâmetros que possuem um valor fixo que é definido na configuração da operação. Para Parâmetros do usuário, um prompt é apresentado ao enfileirar o fluxo de trabalho para fornecer os valores.
Condições de exibição
As condições de exibição podem ser usadas para determinar se um usuário é solicitado a fornecer um valor para um determinado parâmetro, dependendo dos valores dos parâmetros previamente preenchidos.
Por exemplo, se houver dois parâmetros {perform_add_evidence} e {source_data_location}, uma condição de exibição pode ser configurada para exibir apenas o parâmetro {source_data_location} se o valor do parâmetro {perform_add_evidence} for True.
Se um parâmetro não corresponder à condição de exibição, ele terá um valor em branco.
| As condições de exibição podem fazer referência apenas a parâmetros definidos na mesma operação Configurar parâmetros acima do parâmetro atual. |
Filtros de valor de parâmetro
Os seguintes arquivos de valor de parâmetro podem ser aplicados, dependendo do tipo de parâmetro:
-
Texto os valores dos parâmetros podem ser filtrados usando expressões regulares (regex).
-
Número os valores dos parâmetros podem ser filtrados usando um valor mínimo e máximo permitido.
-
Relatividade Os valores dos parâmetros podem ser filtrados com base em outros parâmetros do Relativity anteriores, como o cliente ou espaço de trabalho do Relativity. Esses filtros requerem o uso de um Serviço de Relatividade.
2.13.4. Notificação
Esta operação envia uma notificação por email com uma mensagem personalizada.
Se a opção Notificação de Email for selecionada, um e-mail será enviado para o endereço de e-mail especificado. Para obter informações sobre o servidor de e-mail SMTP e a porta usada no ambiente, entre em contato com o administrador da rede.
O valor inserido no campo Senha será armazenado em texto não criptografado no arquivo de fluxo de trabalho - uma senha NÃO DEVE ser inserida neste campo. Em vez disso, defina este campo para um nome de parâmetro protegido, por exemplo {smtp_password} e consulte a seção Protected Parameters para obter instruções sobre como definir valores de parâmetro protegidos. |
As seguintes opções adicionais podem ser configuradas:
-
Anexar log de execução do fluxo de trabalho como texto: Selecione esta opção para anexar um arquivo chamado
WorkflowLog.txtao e-mail, contendo o log de execução atual. -
Anexe o último relatório gerado, se disponível: Selecione esta opção para anexar o último arquivo de relatório gerado.
-
Anexos adicionais: Especifique os arquivos adicionais que devem ser anexados ao e-mail.
| Para anexar vários relatórios a um e-mail de notificação, defina e armazene os caminhos para esses arquivos usando parâmetros e, em seguida, use esses parâmetros na seção Anexos adicionais. |
2.13.5. Script
Esta operação executará o Código de script fornecido ou o código de a Arquivo de script no contexto do caso Nuix.
| Esta operação pode ser usada para integrar scripts internos existentes em um fluxo de trabalho. |
Acessar parâmetros estáticos
Todos os parâmetros de caso são avaliados antes do início do script e podem ser acessados como atributos no contexto de execução do script sem os colchetes. Por exemplo, para imprimir o conteúdo da pasta case, o seguinte script python pode ser usado:
import os
print "Contents of case folder: "+case_folder
for f in os.listdir(case_folder):
print f
Gerenciar parâmetro dinâmico
O objeto auxiliar parameters pode ser usado para obter e definir o valor dos parâmetros dinâmicos:
-
get(String name)- Obter o valor do parâmetro com o nome fornecido como String. Se o parâmetro não estiver definido, retorne o nome do parâmetro. -
get(String name, Object defaultValue)- Obter o valor do parâmetro com o nome fornecido como String. Se o parâmetro não for definido, o valor padrão será retornado. -
put(String name, String value)- Defina o valor do parâmetro com o nome fornecido. Se o nome fornecido não for um nome de parâmetro válido, ele será normalizado. -
getAllParameterNames()- Retorna uma lista com os nomes de todos os nomes de parâmetros, incluindo parâmetros do sistema, parâmetros definidos pelo usuário e parâmetros fornecidos no Perfil de Execução
Exemplo de configuração e recuperação de parâmetros:
# Setting parameter {param1}
parameters.put("{param1}","Test Value from Script1")
print "Parameter {param1} has value: "+parameters.get("{param1}")
# Attempting to get undefined parameter {param2}
parameterValue = parameters.get("{param2}",None)
print "Parameter {param2} has value: "+str(parameterValue)
Saída:
Parameter {param1} has value: Test Value from Script1
Parameter {param2} has value: None
Além disso, para obter os valores dos parâmetros convertidos em tipos específicos, use os métodos abaixo:
-
getLong(String name)- Obter o valor do parâmetro com o nome fornecido como um número Longo. Se o parâmetro não estiver definido ou não puder ser convertido, uma exceção será lançada. -
getLong(String name, long defaultValue)- Obter o valor do parâmetro com o nome fornecido como um número Longo. Se o parâmetro não estiver definido ou não puder ser convertido, o valor padrão será retornado. -
putLong(String name, long value)- Converta o valor do número Longo e armazene no parâmetro. -
getBoolean(String name)- Obter o valor do parâmetro com o nome fornecido como booleano. Se o parâmetro não estiver definido ou não puder ser convertido, uma exceção será lançada. -
getBoolean(String name, boolean defaultValue)- Obter o valor do parâmetro com o nome fornecido como booleano. Se o parâmetro não estiver definido ou não puder ser convertido, o valor padrão será retornado. -
putBoolean(String name, boolean value)- Converta o valor booleano e armazene no parâmetro. -
getDouble(String name)- Obter o valor do parâmetro com o nome fornecido como um número Double. Se o parâmetro não estiver definido ou não puder ser convertido, uma exceção será lançada. -
getDouble(String name, double defaultValue)- Obter o valor do parâmetro com o nome fornecido como um número Double. Se o parâmetro não estiver definido ou não puder ser convertido, o valor padrão será retornado. -
putDouble(String name, double value)- Converta o valor do número Double e armazene no parâmetro. -
getJsonObject(String name)- Obtenha o valor do parâmetro com o nome fornecido como um objeto JSON desserializado. Se o parâmetro não estiver definido ou não puder ser desserializado como um objeto JSON, uma exceção será lançada. -
getJsonObject(String name, Object defaultValue)- Obtenha o valor do parâmetro com o nome fornecido como um objeto JSON desserializado. Se o parâmetro não estiver definido ou não puder ser desserializado como um objeto JSON, o valor padrão será retornado. -
putJsonObject(String name, Object value)- Serialize o valor como uma string JSON e armazene no parâmetro.
| Ao converter os valores de parâmetro em objeto JSON, o tipo de objeto resultante é inferido durante a desserialização e pode ser diferente do tipo original. |
Exemplo de obtenção e configuração de parâmetros digitados:
# Defining a Python dictionary
dictionary={}
dictionary["number"]=5
dictionary["color"]="Orange"
print "Original dictionary:"
print type(dictionary)
print dictionary
# Storing the dictionary as a parameter
parameters.putJsonObject("{sample_dictionary}",dictionary)
# Getting the parameter as an object
retrievedDictionary = parameters.getJsonObject("{sample_dictionary}")
print "Deserialized dictionary:"
print type(retrievedDictionary)
print retrievedDictionary
Saída:
Original dictionary:
<type 'dict'>
{'color': 'Orange', 'number': 5}
Deserialized dictionary:
<type 'com.google.gson.internal.LinkedTreeMap'>
{u'color': u'Orange', u'number': 5.0}
| Consulte a seção Parameters para obter uma lista dos parâmetros internos. |
| Para obter assistência na criação de scripts personalizados ou na integração de scripts existentes no Automate Workflow, entre em contato com o suporte da Nuix. |
Gerenciar a execução do fluxo de trabalho
A execução do fluxo de trabalho pode ser manipulada ao vivo a partir da operação Script, us`workflowExecution`o os seguintes métodos do objeto auxiliar:
-
stop()- interrompe a execução do fluxo de trabalho -
pause()- Interrompe a execução do fluxo de trabalho -
log(String message)- Adiciona a mensagem ao log de execução do fluxo de trabalho -
logInfo(String message)- Adiciona a mensagem à lista de informações do fluxo de trabalho -
logWarning(String message)- Adiciona a mensagem aos avisos do fluxo de trabalho -
addLink(String linkUrl)- Adiciona o link à lista de links do fluxo de trabalho -
addLink(String linkName, String linkUrl)- Adiciona o link à lista de links do fluxo de trabalho -
addLink(String prefix, String linkName, String linkUrl)- Adiciona o link à lista de links do fluxo de trabalho -
addLink(String prefix, String linkName, String linkUrl, String suffix)- Adiciona o link à lista de links do fluxo de trabalho -
triggerError(String message)- Dispara um erro com a mensagem especificada -
appendWorkflow(String pathToWorkflowFile)- Anexa as operações do fluxo de trabalho do arquivopathToWorkflowFileaté o final do fluxo de trabalho atual. -
appendWorkflowXml(String workflowXml)- Anexa as operações do fluxo de trabalho XMLworkflowXmlao final do fluxo de trabalho atual. OworkflowXmldeve conter todo o conteúdo do arquivo de fluxo de trabalho. -
insertWorkflow(String pathToWorkflowFile)- Insere as operações do fluxo de trabalho do arquivopathToWorkflowFileapós a operação atual do Script. -
insertWorkflowXml(String workflowXml)- Insere as operações do fluxo de trabalho XMLworkflowXmlapós a operação de Script atual. OworkflowXmldeve conter todo o conteúdo do arquivo de fluxo de trabalho. -
goToOperation(int id)- Salta para a operação com o ID especificado depois que a operação de Script é concluída. Para pular para a primeira operação, especifique um valor de ID igual a 1. -
goToNthOperationOfType(int n, String type)- Salta para a enésima operação do tipo especificado do fluxo de trabalho após a conclusão da operação de script. -
goToOperationWithNoteExact(String text)- Salta para a primeira operação no fluxo de trabalho cuja nota é igual ao texto especificado. -
goToOperationWithNoteContaining(String text)- Salta para a primeira operação do fluxo de trabalho para a qual a nota contém o texto especificado. -
goToOperationWithNoteStartingWith(String text)- Salta para a primeira operação do fluxo de trabalho para a qual a nota começa com o texto especificado. -
getOperations()- Retorna todas as operações. -
getOperationsWithWarnings()- Retorna todas as operações com avisos. -
getOperationsWithErrors()- Retorna todas as operações com erros. -
getOperationsWithExecutionState(ExecutionState executionState)- Retorna todas as operações para as quais o estado de execução é igual ao estado de execução especificado. -
getOperation(int id)- Retorna a operação com o id especificado. -
getOperationWithNoteExact(String text)- Retorna a primeira operação no fluxo de trabalho para a qual a nota é igual ao texto especificado. -
getOperationWithNoteContaining(String text)- Retorna a primeira operação no fluxo de trabalho para a qual a nota contém o texto especificado. -
getOperationWithNoteStartingWith(String text)- Retorna a primeira operação no fluxo de trabalho para a qual a nota começa com o texto especificado. -
Returns - Retorna o ID da operação de script atual.
-
Returns - Retorna o ID da última operação no fluxo de trabalho.
-
clearStickyParameters()- Remova todos os parâmetros fixos definidos no perfil do usuário. -
setProgress(double percentageComplete)- Defina o andamento da operação. Isso é exibido na interface do usuário e usado para o cálculo da ETA. Especifique valores entre 0,0 e 1,0. -
setTaskName(String taskName)- Define o nome das tarefas nas quais o script está trabalhando. Isso é exibido na interface do usuário.
Exemplo de script que reinicia a execução duas vezes e, em seguida, pula para a última operação no fluxo de trabalho:
count = parameters.getLong("{execution_count}",0)
count=count+1
parameters.putLong("{execution_count}",count)
if (count<3):
workflowExecution.goToOperation(1)
else:
workflowExecution.goToOperation(workflowExecution.getOperationsCount())
Gerenciar operações
As informações sobre uma operação podem ser obtidas da operação Script usando os seguintes métodos do objeto auxiliar operation:
-
getId()- Retorna o id da operação. -
getExecutionState()- Retorna o estado de execução da operação. -
getName()- Retorna o nome da operação. -
getNotes()- Retorna as notas da operação. -
getErrorMessage()- Retorna a mensagem de erro da operação. Se a operação não tiver erro, este valor será nulo ou em branco. -
getWarningMessages()- Retorna a lista de avisos para a operação. Se a operação não tiver nenhum aviso, esta será uma lista vazia. -
clearWarningMessages()- Limpa as mensagens de aviso da operação. -
getStartDateTime()- Retorna a data de início da operação como Joda DateTime. -
getFinishedDateTime()- Retorna a data de término da operação como Joda DateTime. -
getSkippable(Boolean skippable)- Retornatruese for pulável. -
getDisabled()- Retorna verdadeiro` se a operação estiver desabilitada. -
setDisabled(Boolean disabled)- Define o estado desabilitado da operação. -
getSoftFail()- Retornatruese a operação estiver definida como falha suave em caso de erro. -
setSoftFail(Boolean softFail)- Defina o estado de falha suave da operação. -
getEta()- Retorna a operação ETA como Joda DateTime. -
getPercentageComplete()- Retorna o andamento da operação em porcentagem.
Exemplo de script que imprime os detalhes da última operação com erro:
operations_with_errors = workflowExecution.getOperationsWithErrors()
if operations_with_errors.size() >= 1:
last_error_operation = operations_with_errors[-1]
print "Last operation with error #{0} {1}: {2}".format(last_error_operation.getId(), last_error_operation.getName(), last_error_operation.getErrorMessage())
else:
print "No operations encountered errors"
Sincronizar execução
Para sincronizar a execução de certas partes do fluxo de trabalho entre vários trabalhos, por exemplo, para garantir que apenas um trabalho por vez execute uma parte do fluxo de trabalho, use bloqueios usando os seguintes métodos do objeto auxiliar workflowExecution:
-
acquireLock(String lockName)- Tenta adquirir o bloqueio com o nome especificado. Se o bloqueio for mantido por outro Job, a execução do script será bloqueada nesta etapa, até que o bloqueio fique disponível. -
boolean releaseLock(String lockName)- Libera o bloqueio com o nome especificado. Retornatruese o bloqueio foi mantido anteriormente por este trabalho. -
boolean tryAcquireLock(String lockName)- Tenta adquirir o bloqueio com o nome especificado, se disponível. Retornatruese o bloqueio foi adquirido. Se o bloqueio não puder ser adquirido, retornafalsee continua a execução.
Exemplo de script para adquirir um bloqueio com o ID do assunto:
workflowExecution.acquireLock(matter_id)
Exemplo de script para liberar o bloqueio com o ID do assunto:
workflowExecution.releaseLock(matter_id)
Gerenciar metadados de conjuntos de dados
As informações sobre os conjuntos de dados selecionados ao enviar o Trabalho são armazenadas no dataSetsMetadata objeto auxiliar. Este objeto é um dicionário, com a chave sendo o ID do Conjunto de Dados e os valores sendo um dicionário com as propriedades do Conjunto de Dados.
Chamar APIs
A operação Script expõe vários objetos auxiliares que podem ser usados para fazer chamadas para Automate e APIs de terceiros. Esses objetos auxiliares são:
-
restAutomate- Faça chamadas para a API Automate. -
restDiscover- Faça chamadas para a API Nuix Discover. -
restRelativity- Faça chamadas para a API REST Relativity. -
rest- Faça chamadas para APIs REST genéricas. -
genAi- Faça chamadas para um serviço Gen AI de terceiros.
A resposta das chamadas da API REST tem os seguintes métodos e campos:
-
status_code- Um inteiro representando o código de status -
text- A resposta de texto -
raw- A resposta binária -
json()- Um objeto após analisar a resposta como JSON -
raise_for_status()- Gera uma exceção se o código de status for 4xx ou 5xx -
headers- Um dicionário com os cabeçalhos de resposta
Ao fazer chamadas para uma API REST por HTTPS, a chamada falhará se o certificado HTTPS não for confiável pelo keystore Java. Para permitir explicitamente conexões a servidores com uma impressão digital de certificado de impressão digital SHA-256 específica, use o seguinte método:
-
setFingerprint (String fingerprint)
Chamar API Automate Para fazer chamadas para a API Automate a partir
da operação Script, use o objeto auxiliar restAutomate.
A URL base da instância do Automate e a chave da API de autenticação são definidas automaticamente a partir do Job sob o qual a operação do Script está sendo executada. No entanto, essas configurações podem ser substituídas com os seguintes métodos:
-
setBaseUrl(String baseUrl) -
setBearerToken(String bearerToken)
Os seguintes métodos podem ser usados para chamar um terminal de API:
-
get(String endpoint) -
delete(String endpoint) -
post(String endpoint, Object data) -
put(String endpoint, Object data)
Exemplo de script Python que cria um novo cliente:
body = {
"name": "Sample Client Name",
"description": "This client was created from the API",
"enabled": False
}
response = restAutomate.post("/api/v1/scheduler/client", body);
print response.json();
Chamar API Nuix Discover Para fazer chamadas para a API Nuix Discover
a partir da operação de script, use restDiscover objeto auxiliar.
O URL base da API Nuix Discover e a chave da API de autenticação são definidos automaticamente a partir da operação Use Nuix Discover Case. No entanto, essas configurações podem ser substituídas pelos seguintes métodos:
-
setBaseUrl(String baseUrl) -
setBearerToken(String bearerToken)
Os seguintes métodos podem ser usados para chamar um terminal de API:
-
call(String query) -
call(String query, Map<String,Object> variables)
Exemplo de script Python que executa uma consulta GraphQL para os usuários com o primeiro nome John:
body = '''
query MyQuery ($fn: String){
users(firstName: $fn) {
id,
fullName
}
}
'''
variables = {"fn":"John"}
response = restDiscover.call(body,variables);
print response.json();
Chamar a API Relativity Para fazer chamadas para a API Relativity
Rest a partir da operação Script, use o objeto auxiliar restRelativity.
A URL do servidor Relativity e os cabeçalhos de autenticação são definidos automaticamente na operação Configure Relativity Connection. No entanto, essas configurações podem ser substituídas com os seguintes métodos:
-
setBaseUrl(String baseUrl) -
setBearerToken(String bearerToken) -
setBasicAuth(String username, String password)
Os seguintes métodos podem ser usados para chamar um terminal de API:
-
get(String endpoint) -
delete(String endpoint) -
post(String endpoint, Object data) -
put(String endpoint, Object data) -
queryObjectManager(String objectTypeName, Long workspaceArtifactId, String condition, int start, int length) -
queryObjectManager(String objectTypeName, Long workspaceArtifactId, String condition, String[] fieldNames, int start, int length) -
queryObjectManagerSlim(String objectTypeName, Long workspaceArtifactId, String condition, int start, int length) -
queryObjectManagerSlim(String objectTypeName, Long workspaceArtifactId, String condition, String[] fieldNames, int start, int length)
Exemplo de script Python que consulta o Relativity Object Manager em busca de áreas de trabalho com um nome específico e imprime a ID do artefato:
workspaceName = "Relativity Starter Template"
body = {
"request": {
"Condition": "'Name' == '"+workspaceName+"'",
"ObjectType": {
"ArtifactTypeID": 8
},
"Fields": [{
"Name": "Name"
}
]
},
"start":0,
"length":1000
}
response = restRelativity.post("/Relativity.Rest/api/Relativity.ObjectManager/v1/workspace/-1/object/query",body)
response.raise_for_status()
print("Response count: "+str(int(response.json()["TotalCount"])))
for responseObject in response.json()["Objects"]:
print "ArtifactID: "+str(int(responseObject["ArtifactID"]))
for fieldValue in responseObject["FieldValues"]:
print(fieldValue["Field"]["Name"]+": "+fieldValue["Value"])
Exemplo de script Python que usa o auxiliar queryObjectManager para consultar nomes e nomes de clientes de todos os assuntos:
fields = ["Name", "Client Name"]
response = restRelativity.queryObjectManager("Matter", -1, None, fields, 1, 10000)
response.raise_for_status()
print("Response count: "+str(int(response.json()["TotalCount"])))
for responseObject in response.json()["Objects"]:
print "ArtifactID: "+str(int(responseObject["ArtifactID"]))
for fieldValue in responseObject["FieldValues"]:
print(fieldValue["Field"]["Name"]+": "+fieldValue["Value"])
Chamar API genérica Para fazer chamadas para uma API genérica a
partir da operação Script, use rest objeto auxiliar.
A URL base pode ser opcionalmente definida usando o seguinte método:
-
setBaseUrl(String baseUrl)
A autenticação pode ser configurada opcionalmente usando os seguintes métodos:
-
setBearerToken(String bearerToken) -
setBasicAuth(String username, String password)
Os cabeçalhos personalizados podem ser definidos opcionalmente usando o seguinte método:
-
setHeader(String name, String value)
Os seguintes métodos podem ser usados para chamar um terminal de API:
-
get(String endpoint) -
delete(String endpoint) -
post(String endpoint, Object data) -
put(String endpoint, Object data)
Exemplo de script Python consulta uma API REST:
response = rest.get("https://dummy.restapiexample.com/api/v1/employees");
print response.json();
O cliente restante suporta solicitações MultiPart. Para enviar solicitações MultiPart, o usuário precisa obter o objeto builder usando o seguinte método:
-
getMultiPartBuilder()
Depois que o usuário tiver o objeto construtor MultiPart, ele poderá usar os seguintes métodos:
-
addMultiPart(String content, String contentType): Adiciona uma parte do corpo à solicitação MultiPart -
addMultiPart(String content, String contentType, String contentDisposition): Adiciona uma parte do corpo à solicitação MultiPart com um cabeçalhoContent-Disposition -
reset(): Redefine o objeto MultiPart -
build(): Retorna o objeto MultiPart
Exemplo de script Python que publica um objeto MultiPart
builder = rest.getMultiPartBuilder()
builder.addMultiPart("aaaaaaaaa","application/javascript")
builder.addMultiPart("bbbbbbbbb","image/gif")
body = builder.build()
response = rest.post("https://multipart.requestcatcher.com/test",body);
print response.json()
Chamar Gen AI Para fazer chamadas para um serviço Gen AI de terceiros
genAi objeto auxiliar.
Os seguintes métodos podem ser usados:
-
getModel(): Retorna o nome do modelo que está sendo usado -
getApiUrl(): Retorna a URL da API que está sendo usada -
getServiceRoot(): Retorna o nome de domínio da API, com o valorapi.removido -
getCompletionMessage(List<Map<String,String>> genAiChatRequestMessages): Obtenha a resposta de texto do Gen AI -
getCompletions(List<Map<String,String>> genAiChatRequestMessages): Obtenha o objeto de conclusão do Gen AI
Exemplo de script Python com uma chamada simples para obter uma resposta:
messages = [
{ 'role': 'system', 'content': 'You always respond with 10 words in English followed by a word in French.' },
{ 'role': 'user', 'content': 'What''s in this image?' },
{ 'role': 'user', 'imageMimeType': 'image/png', 'imageBase64': 'iVBORw0KGgoAAAANSUhEUgAAAQAAAAEACAIAAADTED8xAAADMElEQVR4nOzVwQnAIBQFQYXff81RUkQCOyDj1YOPnbXWPmeTRef+/3O/OyBjzh3CD95BfqICMK0CMK0CMK0CMK0CMK0CMK0CMK0CMK0CMK0CMK0CMK0CMK0CMK0CMK0CMK0CMK0CMK0CMK0CMK0CMK0CMK0CMK0CMK0CMK0CMK0CMK0CMK0CMK0CMK0CMK0CMK0CMK0CMK0CMK0CMK0CMK0CMK0CMK0CMK0CMK0CMK0CMK0CMK0CMK0CMK0CMK0CMK0CMK0CMK0CMK0CMK0CMK0CMK0CMK0CMK0CMK0CMK0CMK0CMK0CMK0CMK0CMK0CMK0CMK0CMK0CMK0CMK0CMK0CMK0CMK0CMK0CMK0CMK0CMK0CMK0CMK0CMK0CMK0CMK0CMK0CMK0CMK0CMK0CMK0CMK0CMK0CMK0CMK0CMK0CMK0CMK0CMK0CMK0CMK0CMK0CMK0CMK0CMK0CMK0CMK0CMK0CMK0CMK0CMK0CMK0CMK0CMK0CMK0CMK0CMK0CMK0CMK0CMK0CMK0CMK0CMK0CMK0CMK0CMK0CMK0CMK0CMK0CMK0CMK0CMK0CMK0CMK0CMK0CMK0CMK0CMK0CMK0CMK0CMK0CMK0CMK0CMK0CMK0CMK0CMK0CMK0CMK0CMK0CMK0CMK0CMK0CMK0CMK0CMK0CMK0CMK0CMK0CMK0CMK0CMK0CMK0CMK0CMK0CMK0CMK0CMK0CMK0CMK0CMK0CMK0CMK0CMK0CMK0CMK0CMK0CMK0CMK0CMK0CMK0CMK0CMK0CMK0CMK0CMK0CMK0CMK0CMK0CMK0CMK0CMK0CMK0CMK0CMK0CMK0CMK0CMK0CMK0CMK0CMK0CMK0CMK0CMK0CMK0CMK0CMK0CMK0CMK0CMK0CMK0CMK0CMK0CMK0CMK0CMK0CMK0CMK0CMK0CMK0CMK0CMK0CMK0CMK0CMK0CMK0CMK0CMK0CMK0CMK0CMK0CMK0CMK0CMK0CMK0CMK0CMK0CMK0CMK0CMK0CMK0CMK0CMK0CMK0CMK0CMK0CMK0CMK0CMK0CMK0CMK0CMK0CMK0CMK0CMK0CMK0CMK0CMK0CMK0CMO0TAAD//2Anhf4QtqobAAAAAElFTkSuQmCC'}
]
response = genAi.getResponseMessage(messages);
print(response)
Exemplo de script Python com uma chamada para obter os detalhes de uma resposta:
print("Setup:")
print("\tModel: "+genAi.getModel())
print("\tService Name: "+genAi.getServiceName())
messages = [
{ 'role': 'system', 'content': 'You always respond with 10 words in English followed by a word in French.' },
{ 'role': 'user', 'content': 'Hi, who are you' },
{ 'role': 'assistant', 'content': 'I am a warrior' },
{ 'role': 'user', 'content': 'Why did you say that?' }
]
response = genAi.getResponse(messages);
print("\tMessage: "+response.getMessage().getContent())
print("\tRole: "+response.getMessage().getRole())
usage = response.getUsage()
print("Usage: ")
print("\tPrompt tokens: "+str(usage.getPromptTokens()))
print("\tCompletion tokens: "+str(usage.getCompletionTokens()))
Exemplo de script Python para listar modelos disponíveis e selecionar um modelo personalizado para o escopo do script
print "Available models: "
for availableModel in genAi.getAvailableModels():
print "\t"+availableModel.getId()+" ("+availableModel.getName()+")";
genAi.setModel("llava:34b")
print("Setup:")
print("\tModel: "+genAi.getModel())
2.13.6. PowerShell
Esta operação executará o script PowerShell especificado.
Obtendo valores de parâmetros
Ao executar um script do PowerShell a partir do código especificado, os parâmetros do Automate usados no código serão avaliados antes de executar o código. A avaliação dos parâmetros do Automate não é realizada ao executar um arquivo de script do PowerShell.
Por exemplo, o seguinte código de script do PowerShell:
Write-Host "The time is: {date_time}"
produzirá a seguinte saída:
Running PowerShell code
The time is: 20221006-132923
PowerShell exited with code 0
Configurando Valores de Parâmetros
Para definir valores de parâmetros do Automate a partir de um script do PowerShell, o valor do parâmetro precisa ser gravado em um arquivo em um local específico. Esse mecanismo é necessário porque o script do PowerShell não é executado no mesmo contexto que o fluxo de trabalho do Automate.
Para definir um parâmetro com o nome {sample_parameter_name}, o script do PowerShell deve gravar o valor do parâmetro em um arquivo chamado sample_parameter_name sem extensão, na pasta {powershell_parameters}, por exemplo:
Set-Content -NoNewline -Path {powershell_parameters}\sample_parameter_name -Value $SampleValue
O parâmetro {powershell_parameters} será atribuído automaticamente a um caminho temporário ao executar a operação do PowerShell e não precisa ser definido em outro lugar. Para usar esse mecanismo em um script do PowerShell, passe o valor desse parâmetro como um argumento para o script. |
Por exemplo, para obter a data e a hora atuais no PowerShell e definir um parâmetro Automate, use o seguinte código do PowerShell:
$CurrentDate = Get-Date
Set-Content -NoNewline -Path {powershell_parameters}\date_from_powershell -Value $CurrentDate
2.13.7. Executar aplicativo externo
Esta operação executará um arquivo executável com argumentos especificados e aguardará o término.
Exemplo para copiar uma pasta usando robocopy:
-
Local do aplicativo:
C:\Windows\System32\Robocopy.exe -
Argumentos:
"C:\Program Files\Automate" "C:\Temp\Automate" /E
Exemplo para listar uma pasta usando cmd.exe e redirecionar a saída para um arquivo de texto na pasta C: \ Temp:
-
Local do aplicativo:
C:\Windows\System32\cmd.exe -
Argumentos
/c dir "C:\Program Files" > "listing_{date_time}.txt" -
Diretório de trabalho:
C:\Temp
2.13.8. API de chamada
Esta operação fará uma chamada de API.
As seguintes opções podem ser configuradas:
-
Verbo: O verbo HTTP, como
GETouPOST. -
URL: O URL.
-
Impressão digital do certificado: Opcional, a impressão digital do certificado SHA-256 que deve ser confiável mesmo que o certificado seja autoassinado.
-
Tipo de Autenticação: O tipo de autenticação que a API requer.
-
Sem autenticação: Sem autenticação.
-
Chave API: Forneça os Nome da chave de API e Valor da chave da API que serão definidos como cabeçalhos.
-
Ficha do Portador: Forneça o valor Símbolo.
-
Autenticação básica: Forneça o Nome do usuário e Senha.
-
-
Parâmetros: Opcional, parâmetros de URL.
-
Cabeçalhos: cabeçalhos HTTP personalizados opcionais.
-
Tipo de corpo: O tipo de dados do corpo a serem enviados.
-
Nenhum: Não há dados para enviar.
-
Dados do formulário: Forneça o campo do formulário Nomes e Valores.
-
Cru: Forneça o Tipo de corpo e os dados.
-
Binário: Forneça o Localização de arquivo contendo os dados binários.
-
Depois que a chamada da API for concluída, os seguintes parâmetros serão preenchidos:
-
{call_api_response_code}: O código de resposta HTTP. -
{call_api_response_headers}: Os cabeçalhos de resposta, codificados em JSON. -
{call_api_response_body}: O corpo da resposta.
2.13.9. Configurar OCR nativo
Esta operação define a configuração do Automatize OCR.
O Automate OCR usa os binários Tesseract/Leptonica criados pela Mannheim University Library. Antes de executar uma operação Native OCR, o Automate OCR ou outra distribuição do Tesseract OCR deve ser instalado.
A operação tem as seguintes configurações:
-
Alocação de trabalhadores:
-
Predeterminado: Use o número especificado de trabalhadores
-
Por núcleo de CPU: Use um número de trabalhadores como uma proporção do número de núcleos de CPU. Por exemplo, em um servidor com 16 núcleos, uma proporção de 0,8 corresponde a 12 núcleos (ou seja, 80% de 16 núcleos).
-
-
Pasta de binários do mecanismo de OCR: Opcional, a pasta onde o Automate OCR ou o Tesseract OCR está instalado.
-
Arquivo de palavras do usuário: Opcional, o caminho para o arquivo de palavras do Tesseract.
-
Arquivo de padrões do usuário: Opcional, o caminho para o arquivo de padrões do Tesseract.
-
Resolução de imagem: Opcional, a resolução da imagem de origem em DPI das imagens, se conhecida.
-
Rasterize a resolução do PDF: Opcional, a resolução a ser usada ao rasterizar arquivos PDF antes do OCR.
-
Nível de registro do mecanismo de OCR: Opcional, o nível de log para o Tesseract OCR Engine.
-
línguas: Opcional, o(s) idioma(s) em que o texto está escrito, se conhecido. Ao configurar vários idiomas, separe-os pelo sinal de mais, por exemplo
eng+deu+fra.
| Para obter uma lista de idiomas suportados pelo Tesseract, consulte https://github.com/tesseract-ocr/tessdoc/blob/main/Data-Files-in-different-versions.md. |
-
Modo de segmentação de página: Opcional, o método utilizado para segmentar a página.
| Para obter uma lista de modos de segmentação de página suportados pelo Tesseract, consulte https://tesseract-ocr.github.io/tessdoc/ImproveQuality.html#page-segmentation-method |
-
Reordenar: Se definido, o pré-processador tentará corrigir a distorção da imagem antes de executar o OCR.
| A opção Reordenar está disponível apenas para formatos de imagem comuns e arquivos PDF. Não está disponível para arquivos de texto de origem contendo uma lista de imagens. |
| A opção Reordenar corrigirá apenas rotações de ângulos pequenos e não rotacionará a imagem em 90, 180 ou 270 graus. |
-
Girar: Se definido, o pré-processador irá girar a imagem antes de executar o OCR. Ao usar a opção Detecção automática, o mecanismo de OCR será executado primeiro no modo 0 - Apenas Orientação e Detecção de Script (OSD) para detectar a orientação e, em seguida, será executado uma segunda vez nas imagens giradas no modo configurado pelo usuário.
| Ao usar o modo de rotação Detecção automática, geralmente é ideal na maioria dos casos não selecionar um Modo de segmentação de página específico ou selecionar um modo sem OSD porque a imagem já estará orientada corretamente. |
-
Modo de mecanismo OCR: Opcional, o modo em que o mecanismo de OCR deve ser executado. Essa opção só deve ser usada ao usar uma compilação personalizada do Tesseract.
-
Arquivo de configuração do mecanismo OCR: Opcional, o arquivo de configuração do Tesseract para usar com as variáveis de configuração.
-
Tempo limite por arquivo: Opcional, a duração máxima de tempo que o mecanismo de OCR pode ser executado em um único arquivo, possivelmente contendo várias páginas.
-
Pasta temporária de OCR: Opcional, a pasta na qual são criados os arquivos temporários usados durante as operações de OCR. Se não estiver definido, uma pasta temporária será criada na pasta de destino onde o texto OCR é exportado ou dentro da pasta Nuix case.
-
Não limpe a pasta temporária de OCR após a conclusão: Se definido, a pasta temporária de OCR não é excluída na conclusão do OCR. Essa opção pode ser usada para solucionar problemas do processo de OCR inspecionando os arquivos temporários intermediários.
2.13.10. Itens de OCR nativos
Esta operação executa OCR usando o Automate OCR Engine em itens de caso Nuix. A operação é projetada para ter melhor desempenho quando os itens Nuix têm dados binários armazenados.
| Ao executar a operação Itens de OCR nativos em itens Nuix que não possuem dados binários armazenados, o OCR levará muito mais tempo. Antes de executar esta operação, armazene os binários do item durante a operação Adicionar evidência ou use a operação Preencher armazenamento binário para preencher os binários dos itens que precisam ser OCR. |
Itens em formatos PDF ou de imagem suportados pelo Automate OCR Engine são extraídos como arquivos nativos dos itens Nuix e OCRed. Para todos os outros itens, imagens impressas são geradas dentro do Nuix, que são então OCRed.
As configurações do mecanismo de OCR são definidas na operação Configure Native OCR.
Um relatório de resumo CSV é produzido, listando todos os itens de origem, o status de sucesso do OCR e outros detalhes do processo de OCR.
A operação tem as seguintes configurações:
-
Consulta de escopo: A consulta Nuix para selecionar os itens para OCR.
-
Modificações de texto
-
Acrescentar: Anexe o texto extraído no final do texto do documento existente.
-
Substituir: Substitua o texto do documento pelo texto extraído.
-
-
Criar PDF pesquisável: Se definido, gere arquivos PDF com o texto extraído sobreposto e defina como as imagens impressas dos itens.
| As opções Marcar itens com falha como têm o mesmo comportamento da operação Exportação Legal. |
2.13.11. Arquivos de imagens de OCR nativos
Esta operação executa o OCR usando o Automate OCR Engine em arquivos de imagem.
| Para uma lista de formatos de arquivo de imagem suportados, consulte https://github.com/tesseract-ocr/tessdoc/blob/main/InputFormats.md. Além desses formatos de arquivo, o Automate suporta arquivos PDF de origem (esses são rasterizados para imagens) e arquivos de texto contendo uma lista de arquivos de imagem. |
As configurações do mecanismo de OCR são definidas na operação Configure Native OCR.
Para cada arquivo de imagem de origem, um arquivo de texto correspondente é escrito no Pasta de arquivos de texto de saída. Um relatório CSV chamado summary_report.csv é produzido, listando todos os arquivos de origem, o status de sucesso do OCR, o caminho e o tamanho do arquivo de texto resultante, bem como a saída do mecanismo de OCR.
A operação tem as seguintes configurações:
-
Pasta de arquivos de imagem de origem: A pasta que contém os arquivos de imagem a serem OCR.
-
Verificar pasta recursivamente: Se definido, a pasta de origem será verificada recursivamente e os arquivos de saída serão criados usando a mesma estrutura de pastas.
-
Ignorar imagens com arquivos de texto não vazios existentes: Se definido, as imagens serão ignoradas se houver um arquivo de texto com o nome esperado e um tamanho maior que 0 na pasta de destino.
-
Montar páginas regex: A expressão regular a ser usada para detectar documentos com várias páginas, que foram exportados com um arquivo de imagem por página. A regex deve ter pelo menos um grupo correspondente que é usado para selecionar o nome da base do documento.
-
Pasta de arquivos de texto de saída: A pasta na qual os arquivos de texto serão criados.
-
Manter arquivos incompletos: Se definido, arquivos vazios e arquivos de texto incompletos do mecanismo de OCR não são excluídos.
-
Criar PDF pesquisável: Se definido, as imagens de origem são convertidas em arquivos PDF no Pasta de arquivos de texto de saída com o texto extraído sobreposto.
-
Pasta de saída de arquivos PDF: A pasta na qual os arquivos PDF serão criados. Se este campo estiver em branco, será o padrão para a pasta de arquivos de texto de saída.
2.14. Relatividade
Estas operações transferem dados entre o caso Nuix e a Relatividade e permitem gerenciar diversas operações na Relatividade.
2.14.1. Configurar conexão de relatividade
| Este módulo de produto só pode ser usado por terceiros com licenças válidas para Relativity ou Relativity One, produtos da Relativity ODA LLC. A Relativity ODA LLC não testa, avalia, endossa ou certifica este produto. |
Esta operação define a configuração usada para conectar ao ambiente Relativity.
Opcionalmente, o Serviço de Relatividade pode ser usado e apontar para um parâmetro do tipo Serviço de Relatividade. Durante o envio do fluxo de trabalho no Agendador, o usuário será solicitado a selecionar o Serviço de Relatividade e autenticar-se no serviço, se necessário.
Quando não estiver usando um Relativity Service, as seguintes opções são explicitamente definidas na operação:
-
Nome de anfitrião: O nome do host Relativity, por exemplo relativity.example.com.
-
Terminal de serviço: O Terminal do Serviço de Relatividade, por exemplo
/relativitywebapi. -
Tipo de ponto final: O tipo de ponto final da relatividade, por exemplo
HTTPS. -
Nome do usuário: O nome de usuário usado para realizar a importação para o Relativity.
-
Senha: A senha para o nome de usuário acima.
O valor digitado neste campo será armazenado em texto não criptografado no arquivo de fluxo de trabalho - uma senha NÃO DEVE ser inserida nesse campo. Em vez disso, defina esse campo como um nome de parâmetro protegido, por exemplo {relativity_password} e consulte a seção Protected Parameters para obter instruções sobre como definir valores de parâmetros protegidos. |
-
Importar threads: O número de encadeamentos paralelos a serem usados para uploads do Relativity, como Legal Export, Relativity Loadfile Upload, Relativity Images Overlay, Relativity Metadata Overlay, Relativity CSV Overlay.
-
Tempo limite do segmento de importação: O número de segundos para permitir que um encadeamento de upload do Relativity fique ocioso. Se nenhum progresso for relatado por mais tempo do que o tempo limite permitido, o thread de importação será interrompido.
-
Importar novas tentativas de encadeamento: O número de vezes para repetir a execução de um thread de importação, em situações em que a importação encontrou um erro fatal ou expirou.
-
Threads de metadados: O número de threads paralelos a serem usados para operações de metadados do Relativity, como Create Relativity Folders.
-
Corrigir entradas inválidas: Se selecionada, esta opção corrigirá automaticamente as entradas que falharam no upload devido aos seguintes problemas:
-
Valor do campo muito longo - o valor do campo carregado é aparado com o comprimento máximo permitido em Relatividade;
-
Valor do campo inválido, por exemplo, devido à data formatada incorretamente
-
o valor do campo é removido do item carregado na Relatividade;
-
-
Nativo ausente do arquivo de texto - o componente nativo ou de texto é removido do item carregado no Relativity;
-
-
Versão do cliente: Quando desmarcado, o Automate usará a versão do cliente Relativity que for a mais próxima da versão do servidor Relativity. Quando marcado, O Automate usará a versão do cliente Relativity especificada, se disponível.
-
Versão REST: A versão dos serviços REST a serem usados ao consultar objetos Relativity, como espaços de trabalho e pastas. Para a Relatividade Um, use
REST (v1 Latest).
A versão REST (Server 2021) requer o Relativity Server Patch (3º trimestre de 2021) ou posterior. |
| O valor is é independente do número de trabalhadores da Nuix. Ao usar mais de um encadeamento de importação, o arquivo de carregamento ou sobreposição será dividido e os dados serão carregados no Relativity em paralelo. Como vários encadeamentos carregam os dados em paralelo, esse método afeta a ordem na qual os documentos aparecem na Relatividade qu*Importar threads*o nenhuma ordem de classificação é especificada. |
2.14.2. Definir cliente Relativity
Esta operação seleciona um cliente no ambiente Relativity, usando as seguintes configurações:
-
Identificador do cliente: O Nome ou ID do Artefato do cliente Relativity.
-
Cliente existente: A ação a ser tomada se o cliente não existir:
-
Criar cliente se não existir cria um novo cliente.
-
usar apenas cliente existente aciona um erro se o cliente não existir.
-
As seguintes configurações são aplicáveis ao criar um novo cliente:
-
Número do cliente: O número do cliente a ser definido no cliente.
-
Identificador de status: Opcional, o Nome ou ID do Artefato do status a definir no cliente.
-
Palavras-chave: Opcional, as palavras-chave para definir no cliente.
-
Notas: Opcional, as notas a definir no cliente.
2.14.3. Definir Relatividade Matéria
Esta operação seleciona um assunto no ambiente Relativity, usando as seguintes configurações:
-
Identificador de assunto: O Nome ou ID do Artefato da questão da Relatividade.
| O assunto é selecionado na Relatividade independente do cliente ao qual pertence, mesmo que a operação Definir cliente Relativity tenha sido utilizada anteriormente. |
-
Matéria existente: A ação a ser tomada se o assunto não existir:
-
Criar matéria se ela não existir cria um novo assunto.
-
use apenas matéria existente aciona um erro se o assunto não existir.
-
As seguintes configurações são aplicáveis ao criar um novo caso:
-
Número do assunto: O número do assunto a ser definido no assunto.
-
Identificador de status: Opcional, O Nome ou ID do Artefato do status para definir o assunto.
-
Palavras-chave: Opcional, as palavras-chave a definir sobre o assunto.
-
Notas: Opcional, as notas a definir sobre o assunto.
| Quando um novo caso é criado, ele é criado no cliente selecionado usando a operação Definir cliente Relativity anterior. |
2.14.4. Definir espaço de trabalho da relatividade
Esta operação seleciona uma área de trabalho no ambiente Relativity usando as seguintes configurações:
-
Identificador da área de trabalho: O Nome ou ID do Artefato do espaço de trabalho Relatividade.
| A área de trabalho é selecionada em Relatividade independentemente do cliente e da matéria a que pertence, mesmo que as operações Definir cliente Relativity ou Definir Relatividade Matéria tenham sido usadas anteriormente. |
-
Caminho da pasta: O caminho dentro da área de trabalho. Se estiver em branco, recuperará a pasta correspondente à raiz do espaço de trabalho.
-
Crie o caminho da pasta se ele não existir:: Se marcada, o caminho da pasta especificada será criado na área de trabalho se não existir.
-
Espaço de trabalho existente: A ação a ser tomada se o espaço de trabalho não existir:
-
Clonar a área de trabalho se ela ainda não existir cria um novo espaço de trabalho clonando o espaço de trabalho de origem.
-
Use apenas o espaço de trabalho existente aciona um erro se o espaço de trabalho não existir.
-
-
Configurações de clone: As configurações a serem usadas ao clonar um espaço de trabalho.
-
Nome do espaço de trabalho: O nome para dar ao espaço de trabalho recém-criado.
-
Importam: A Matéria a ser usada ao clonar o Workspace.
-
Modelo de espaço de trabalho: O modelo de espaço de trabalho a ser usado ao clonar o espaço de trabalho.
-
Conjunto de recursos: O pool de recursos a ser usado ao clonar o Workspace, se essa configuração não for definida, o primeiro pool de recursos disponível do ambiente Relativity será selecionado.
-
Local do banco de dados: O local do banco de dados a ser usado ao clonar o espaço de trabalho, se essa configuração não estiver definida, o primeiro local do banco de dados disponível do ambiente Relativity será selecionado.
-
Repositório de arquivos padrão: O repositório de arquivos padrão a ser usado ao clonar o espaço de trabalho, se essa configuração não estiver definida, o primeiro repositório de arquivos padrão disponível do ambiente Relativity será selecionado.
-
Local de cache padrão: O local de cache padrão a ser usado ao clonar o espaço de trabalho, se essa configuração não for definida, o primeiro local de cache padrão disponível do ambiente Relativity será selecionado.
-
Status: O Status a ser usado ao clonar o Workspace, se esta configuração não for definida, o primeiro Status disponível do ambiente Relativity será selecionado.
-
| Quando um espaço de trabalho é clonado, ele é criado sob o assunto selecionado usando a operação Definir Relatividade Matéria anterior. |
2.14.5. Excluir espaço de trabalho de relatividade
Esta operação exclui o espaço de trabalho especificado, se existir.
2.14.6. Criar grupo de relatividade
Esta operação cria um ou mais grupos em Relativity sob o cliente selecionado usando a operação Definir cliente Relativity anterior, usando as seguintes configurações:
-
Nome do grupo: O nome do grupo a ser criado.
-
Palavras-chave: Opcional, as palavras-chave a atribuir ao grupo criado.
-
Notas: Opcional, as notas a atribuir ao grupo criado.
| Se existir um grupo com o nome especificado no cliente, o grupo não será criado e, em vez disso, o nome do grupo e o ID do artefato serão registrados. |
Além de fornecer os valores para as configurações do grupo manualmente, o usuário também pode carregar de um arquivo CSV ou TSV, por exemplo:
Group Name Keywords Notes
Reviewer reviewer Simple group for reviewer
Admin admin Group for admins
2.14.7. Gerenciar grupos de espaço de trabalho do Relativity
Esta operação adiciona ou remove grupos em Relativity no espaço de trabalho selecionado usando a operação Definir espaço de trabalho da relatividade anterior, usando as seguintes configurações:
-
Tipo de identificador de grupo: O tipo de identificador usado para os grupos de espaço de trabalho, Nome ou ID do Artefato.
-
Ação do grupo: A ação a ser executada nos grupos, Adicionar ou Retirar.
-
Tabela de configurações do grupo
-
Identificador de grupo: O Nome ou ID do Artefato do grupo, definido pelo campo Tipo de identificador de grupo.
-
Além de fornecer os valores para os grupos de workspaces manualmente, o usuário também pode carregar de um arquivo CSV ou TSV, por exemplo:
Group Identifier
Domain Users
Level 1
Level 2
Os grupos de espaço de trabalho também podem ser carregados de um arquivo durante a execução do fluxo de trabalho, usando a opção Arquivo de grupos de espaço de trabalho.
2.14.8. Criar usuários de relatividade
Esta operação cria um ou mais usuários no Relativity sob o cliente selecionado usando a operação Definir cliente Relativity anterior, usando as seguintes configurações:
-
Identificador de modelo de usuário: O Nome, ID do Artefato ou Endereço de e-mail do usuário de onde copiar as propriedades.
| Ao escolher o tipo de identificador Nome, o nome completo da Relatividade deve ser fornecido. |
| Se o usuário template estiver habilitado, todos os usuários criados também serão habilitados e terão acesso ao Relativity, se o usuário template estiver desabilitado então os usuários criados não terão acesso ao Relativity. |
-
Enviar convite por e-mail: Envia um convite por e-mail para cada usuário criado.
-
Configurações do Usuário:
-
E-Mail: O e-mail do usuário a ser criado.
-
Primeiro nome: O primeiro nome do usuário a ser criado.
-
Sobrenome: O sobrenome do usuário a ser criado.
-
Palavras-chave: Opcional, as palavras-chave a atribuir ao grupo criado.
-
Notas: Opcional, as notas a atribuir ao grupo criado.
-
Identificador do usuário do método de login: Opcional, o assunto ou nome da conta para os métodos de login copiados do usuário modelo.
-
Além de fornecer os valores para as configurações do usuário manualmente, o usuário também pode carregar de um arquivo CSV ou TSV, por exemplo:
Email First Name Last Name Keywords Notes Login Method User Identifier
jon.doe@hotmail.com Jon Doe Reviewer User created by Automate j.doe
el.mills@gmail.com Elisa Mills Support User created by Automate e.mills
As configurações do usuário também podem ser carregadas de um arquivo durante a execução do fluxo de trabalho, usando a opção Arquivo de configurações do usuário.
2.14.9. Gerenciar usuários do Relativity
Esta operação exclui um ou mais usuários do Relativity, usando as seguintes configurações:
-
Tipo de identificador de usuário: O tipo de identificador usado para recuperar usuários: Nome, ID do Artefato ou Endereço de e-mail.
| Ao escolher o tipo de identificador Nome para o identificador do usuário, o nome completo deve ser fornecido. |
-
Ação do usuário: A ação a ser executada nos usuários, Excluir.
-
Comercial:
-
Identificador de usuário: O Nome, ID do Artefato ou Endereço de e-mail do usuário.
-
Além de fornecer os valores para os usuários manualmente, o usuário também pode carregar de um arquivo CSV ou TSV, por exemplo:
User Identifier
jon.doe@hotmail.com
el.mills@gmail.com
Os usuários também podem ser carregados de um arquivo durante a execução do workflow, utilizando a opção Arquivo de usuários.
2.14.10. Gerenciar usuários do grupo Relativity
Esta operação adiciona ou remove um ou mais usuários de um grupo, usando as seguintes configurações:
-
Identificador de grupo: O Nome, ID do Artefato ou Nome (Curtir) do grupo para adicionar ou remover usuários.
-
Tipo de identificador de usuário: O tipo de identificador usado para recuperar usuários: Nome, ID do Artefato ou Endereço de e-mail.
| Ao escolher o tipo de identificador Nome, o nome completo deve ser informado. |
-
Ação do grupo de usuários: A ação a ser executada nos usuários do grupo, Adicionar ou Retirar.
-
Usuários do grupo:
-
Identificador de usuário: O Nome, ID do Artefato ou Endereço de e-mail do usuário.
-
Além de fornecer os valores para os usuários do grupo manualmente, o usuário também pode carregar de um arquivo CSV ou TSV, por exemplo:
User Identifier
jon.doe@hotmail.com
el.mills@gmail.com
Os usuários do grupo também podem ser carregados de um arquivo durante a execução do fluxo de trabalho, usando a opção Arquivo de usuários do grupo.
2.14.11. Permissões do grupo do espaço de trabalho do Relativity de consulta
Esta operação exporta as permissões de um grupo Relativity para o local especificado como um arquivo JSON.
2.14.12. Aplicar permissões de grupo do Relativity Workspace
Esta operação aplica permissões a um Grupo de Relatividade, usando as seguintes configurações:
-
Identificador de Grupo: O Nome, ID do Artefato ou Nome (Curtir) do grupo ao qual aplicar permissões.
-
Permissões JSON: Opcionalmente, o conteúdo de um arquivo de permissões.
-
arquivo de permissões: Um arquivo de permissões criado pela operação Permissões do grupo do espaço de trabalho do Relativity de consulta.
2.14.13. Copiar permissões do grupo do espaço de trabalho do Relativity
Esta operação copia as permissões atribuídas a um grupo em um espaço de trabalho do Relativity para outro grupo ou espaço de trabalho, usando as seguintes configurações:
Copiar permissões de:
-
Identificador do espaço de trabalho de origem: O Nome, ID do Artefato ou Nome (Curtir) do espaço de trabalho de origem.
-
Identificador do grupo de origem: O Nome, ID do Artefato ou Nome (Curtir) do grupo fonte.
Para:
-
Identificador do espaço de trabalho de destino: O Nome, ID do Artefato ou Nome (Curtir) do espaço de trabalho de origem.
-
Identificador do Grupo de Destino: O Nome, ID do Artefato ou Nome (Curtir) do grupo fonte.
2.14.14. Criar pastas de relatividade
Esta operação cria pastas no espaço de trabalho Relatividade a partir do arquivo CSV de listagem. O arquivo de listagem deve ter uma única coluna e o nome da coluna deve conter a palavra Pasta ou Caminho ou Localização.
| Ao fazer upload de documentos para o Relativity com uma estrutura de pastas complexa, é recomendável usar o Criar pastas de relatividade antes do upload para preparar a estrutura de pastas. |
2.14.15. Upload de arquivo de carga de relatividade
Esta operação carrega um arquivo de carregamento Concordance ou CSV para Relativity.
As seguintes configurações são necessárias:
-
Localização do arquivo de carregamento: Caminho para o arquivo de carregamento.
-
Arquivo de mapeamento de campos: Caminho para o arquivo JSON mapeando o perfil Nuix Metadata para os campos do espaço de trabalho Relativity. Se um arquivo de mapeamento não for fornecido, os campos no loadfile serão mapeados para campos com os mesmos nomes no espaço de trabalho Relativity.
-
Detectar exportação de peças: Detecta a existência de loadfiles em subpastas no local especificado e carrega todos os loadfiles detectados sequencialmente.
Esta operação define a propriedade Relatividade Append para Append ao carregar os documentos na Relatividade. |
| A operação can pode ser usada para exportar o arquivo de carga e fazer o upload para o Relativity, com o benefício adicional de fazer o upload de peças de exportação assim que estiverem disponíveis. |
Amostra mínima mapping.json:
{
"FieldList": [
{
"identifier": true,
"loadfileColumn": "DOCID",
"workspaceColumn": "Control Number"
},
{
"loadfileColumn": "TEXTPATH",
"workspaceColumn": "Extracted Text"
},
{
"loadfileColumn": "ITEMPATH",
"workspaceColumn": "File"
},
{
"loadfileColumn": "BEGINGROUP",
"workspaceColumn": "Group Identifier"
}
]
}
2.14.16. Sobreposição de metadados de relatividade
Essa operação exporta os metadados dos itens do Nuix na consulta de escopo e os sobrepõe à Relatividade.
As seguintes configurações são necessárias:
-
Arquivo de mapeamento de campos: Caminho para o arquivo JSON mapeando o perfil Nuix Metadata para os campos do espaço de trabalho Relativity. Se um arquivo de mapeamento não for fornecido, os campos no loadfile serão mapeados para campos com os mesmos nomes no espaço de trabalho Relativity.
| Veja mais informações sobre como criar um arquivo de mapeamento na operação Relativity Loadfile Upload ou use o arquivo de mapeamento de amostra abaixo. |
Esta operação define a propriedade Relativity to para Overlay ao carregar os metadados no Relativity. |
Para sobrepor dados à Relatividade usando um campo não indexado, defina a propriedade identifier como true no arquivo de mapeamento e forneça a ID do artefato desse campo na propriedade fieldId.
Exemplo mapping.json para sobreposição de dados com base no GUID em um espaço de trabalho que contém o campo NuixGuid com o ID do artefato 1040313:
{
"FieldList": [
{
"loadfileColumn": "TEXTPATH",
"workspaceColumn": "Extracted Text"
},
{
"loadfileColumn": "GUID",
"identifier": true,
"fieldId": 1040313,
"workspaceColumn": "NuixGuid"
}
]
}
2.14.17. Sobreposição de imagens de relatividade
Esta operação sobrepõe imagens de um arquivo de carregamento Opticon ao Relativity.
As seguintes configurações são necessárias:
-
Campo identificador: o ID do artefato do campo identificador, como Número de controle ou ID do documento.
Para obter o ID do artefato do campo identificador, abra o espaço de trabalho no Relativity, navegue até o Admin do espaço de trabalho → Campos e clique no campo identificador, por exemplo Número de controle. Então, para obter o ID do artefato deste campo, extraia o valor da URL. Por exemplo, o ID do artefato do com a seguinte URL é 1003667: https://relativity.automate.lab/Relativity/RelativityInternal.aspx?AppID=1018179&ArtifactTypeID=14&ArtifactID=1003667&Mode=Forms&FormMode=view&LayoutID=null&SelectedTab=null |
-
Tira o sufixo da primeira página: Retira o sufixo da primeira página para inferir o ID do documento do arquivo de carregamento Opticon, por exemplo
_0001. -
Detectar exportação de peças: Detecta a existência de loadfiles em subpastas no local especificado e carrega todos os loadfiles detectados sequencialmente.
Esta operação define a propriedade Relativity OverwriteMode como Overlay ao carregar as imagens no Relativity. |
2.14.18. Sobreposição CSV de relatividade
Esta operação sobrepõe os metadados do arquivo de sobreposição especificado para Relativity.
As seguintes configurações são necessárias:
-
Arquivo de mapeamento de campos: Caminho para o arquivo JSON mapeando o perfil Nuix Metadata para os campos do espaço de trabalho Relativity. Se um arquivo de mapeamento não for fornecido, as colunas no arquivo CSV serão mapeadas para campos com os mesmos nomes no espaço de trabalho Relatividade.
| Veja mais informações sobre como criar um arquivo de mapeamento na operação Relativity Loadfile Upload. |
2.14.19. Consulta de propriedade de relatividade
Esta operação consulta as propriedades de um espaço de trabalho Relativity e as atribui como parâmetros no Workflow.
2.14.20. Carregar Objetos Dinâmicos de Relatividade
Esta operação carrega objetos dinâmicos (RDO) para Relativity , usando as seguintes configurações:
-
Identificador de tipo de objeto: O Nome, ID do Artefato ou Nome (Curtir) do tipo de objeto.
-
Carregar objetos no espaço de trabalho: Determina se os objetos serão carregados em uma área de trabalho.
| Se as opções Carregar objetos no espaço de trabalho forem selecionadas, o Definir a operação do espaço de trabalho da relatividade será necessário. |
-
Objetos: Lista separada por tabulações dos objetos a serem carregados.
Dados de objetos de amostra:
Article Title Article Type Article Date Is Available
Star Wars Wikipedia Article 2022-11-10T00:00:01 Yes
Globex Review Article 2022-11-10T00:00:01 No
| O campo Nome é obrigatório e a operação falhará se o campo não estiver presente. |
Além de fornecer os valores para os Objetos manualmente, o usuário também pode carregar de um arquivo TSV usando o mesmo formato do exemplo acima.
| Ao carregar objetos a primeira linha representa os campos do tipo de objeto e as linhas seguintes são os objetos que serão avaliados e carregados no Relativity. |
Quando o usuário estiver utilizando o campo tipo objeto ou escolha, utilize o nome do objeto ou escolha na coluna, por exemplo dado o campo Departamento com o tipo Objeto único e o campo Grupo de Departamento com o tipo Escolha Única:
Name Department Department Group
John Doe IT Sales
Jane Doe Marketing Sales
Quando o usuário estiver utilizando o campo tipo objeto múltiplo ou múltipla escolha, utilize o nome do objeto ou escolha e separe cada item por vírgula ,, por exemplo dado o campo Hobbies com o tipo Objeto Múltiplo e o campo Grupos com o tipo Múltipla escolha:
Name Hobbies Groups
John Doe Hockey,Golfing Rotary Club,Robotics
Jane Doe Golfing,Skiing,Reading Book Club,Crossfit
2.14.21. Criar arquivo ARM
Esta operação cria um trabalho de arquivo Relativity ARM, usando as seguintes configurações:
-
Diretório de arquivo: O caminho onde o arquivo será armazenado, por exemplo
\\INSTANCE007\Arhives\TestWorkspaceArchive -
Usar diretório de arquivo padrão: Usa o caminho padrão para armazenar seu arquivo
Ao selecionar um diretório de arquivo, um caminho UNC válido deve ser fornecido, por exemplo: \\INSTANCE001\Arhives\NewArchive. |
-
Prioridade: A prioridade de execução para o trabalho de arquivamento: Baixo, Médio, Alto
-
Aguarde a conclusão do arquivamento: Aguarda até que o trabalho de arquivamento seja concluído.
-
Bloquear ações de trabalho da IU: determina se as ações de trabalho normalmente disponíveis na interface do usuário devem ser visíveis para o usuário.
-
Notificar o criador do trabalho: Determina se as notificações por e-mail serão enviadas ao criador do trabalho.
-
Notificar o executor do trabalho: Determina se as notificações por e-mail serão enviadas ao executor do trabalho.
-
Incluir backup de banco de dados: Incluir backup do banco de dados no arquivo.
-
Incluir dtSearch: Incluir índices dtSearch no arquivo.
-
Incluir Análise Conceitual: Inclua índices analíticos conceituais no arquivo.
-
Incluir análise estruturada: Inclua índices analíticos estruturados no arquivo.
-
Incluir grade de dados: Incluir dados do aplicativo da grade de dados no arquivo.
-
Incluir arquivos de repositório: Incluir todos os arquivos incluídos no repositório do espaço de trabalho, incluindo arquivos de campos de arquivo no arquivo.
-
Incluir arquivos vinculados: Incluir todos os arquivos vinculados que não existem no repositório de arquivos do espaço de trabalho no arquivo.
-
Comportamento de arquivo ausente: Indica o clima para Pular arquivo ou Stop Job quando arquivos ausentes são detectados durante o processo de arquivamento.
| Definir Comportamento de arquivo ausente como Stop Job fará com que o trabalho de arquivamento pare/falha quando houver um arquivo ausente. |
-
Incluir processamento: Incluir processamento de dados do aplicativo no arquivo.
-
Incluir arquivos de processamento: Inclua todos os arquivos e contêineres que foram descobertos pelo processamento no arquivo.
Quando as opções Incluir arquivos de processamento forem selecionadas, os arquivos estarão localizados no diretório de arquivo sob a pasta Invariant. |
-
Comportamento de arquivo de processamento ausente: Indica se Pular arquivo ou Stop Job quando arquivos de processamento ausentes são detectados durante o processo de arquivamento.
-
Incluir dados do espaço de trabalho estendido: Inclua informações de área de trabalho estendida no arquivo.
| Os dados do espaço de trabalho estendido incluem aplicativos instalados, scripts de relatividade vinculados e manipuladores de eventos não aplicativos. |
-
Comportamento de exportação de erro de aplicativo: Indica se Pular aplicativo ou Stop Job em aplicativos que encontraram erros durante a exportação.
Esta operação requer que a instância do Relativity tenha o aplicativo ARM instalado. |
2.14.22. Criar Restauração ARM da Relatividade
Esta operação cria uma tarefa de restauração ARM, usando as seguintes configurações:
-
Caminho do arquivo: Caminho do arquivo ARM a ser restaurado, por exemplo
\\INSTANCE007\Arhives\TestWorkspaceRestore
| O Caminho do arquivo fornecido não deve estar em uso por outro trabalho ARM. |
-
Prioridade: A prioridade de execução da tarefa de restauração: Baixo, Médio, Alto.
-
Bloquear ações de trabalho da IU: determina se as ações de trabalho normalmente disponíveis na interface do usuário devem ser visíveis para o usuário.
-
Notificar o criador do trabalho: Determina se as notificações por e-mail serão enviadas ao criador do trabalho.
-
Notificar o executor do trabalho: Determina se as notificações por e-mail serão enviadas ao executor do trabalho.
-
Identificador de Matéria: O Nome, ID do Artefato ou Nome (Curtir) da matéria para restaurar.
| Se existir uma operação Definir Relatividade Matéria anterior no fluxo de trabalho, então o assunto da operação Definir Relatividade Matéria, se houver um valor no campo Identificador de Matéria, o assunto definido no campo Identificador de Matéria será usado. |
-
Identificador do pool de recursos: O pool de recursos para o qual restaurar o espaço de trabalho. Se esta configuração não for definida, o primeiro pool de recursos disponível do ambiente Relativity será selecionado.
-
Identificador do servidor de banco de dados: O servidor de banco de dados para o qual restaurar o espaço de trabalho. Se esta configuração não for definida, o primeiro servidor de banco de dados disponível no ambiente Relativity será selecionado.
-
Identificador de local de cache: O local do cache para o qual restaurar o espaço de trabalho. Se esta configuração não for definida, o primeiro local de cache disponível no ambiente Relativity será selecionado.
-
Identificador de repositório de arquivos: O repositório de arquivos para o qual restaurar o espaço de trabalho. Se esta configuração não for definida, o primeiro repositório de arquivos disponível no ambiente Relativity será selecionado.
-
Arquivos de referência como links de arquivo: Determina se os arquivos devem permanecer no diretório de arquivamento e devem ser referenciados no banco de dados do espaço de trabalho em vez de copiá-los para o repositório do espaço de trabalho.
-
Atualizar caminhos de arquivo do repositório: Determina se as localizações dos arquivos do repositório devem ser atualizadas para refletir sua nova localização.
-
Atualizar caminhos de arquivos vinculados: Determina se as localizações de arquivos fora do repositório devem ser atualizadas para refletir sua nova localização
-
Usuários do mapa automático: Determina se os usuários do arquivo devem ser mapeados automaticamente por endereço de e-mail.
-
Grupos de mapas automáticos: Determina se os grupos de arquivos devem ser mapeados automaticamente por nome.
-
Servidor Analítico Estruturado: O Nome, ID do Artefato ou Nome (Curtir) do servidor analítico estruturado. Este campo só é obrigatório quando o arquivo que o usuário está restaurando contém dados analíticos estruturados.
-
Servidor de Análise Conceitual: O Nome, ID do Artefato ou Nome (Curtir) do servidor de analítica conceitual Este campo só é obrigatório quando o arquivo que o usuário está restaurando contém dados de analítica conceitual.
-
Identificador de localização dtSearch: O Nome, ID do Artefato ou Nome (Curtir) do local dtSearch. Este campo só é obrigatório quando o arquivo que o usuário está restaurando contém índices dtSearch.
-
Banco de dados de destino existente: Banco de dados de destino caso o arquivo não tenha um arquivo de backup de banco de dados.
-
Esta operação requer que a instância do Relativity tenha o aplicativo ARM instalado. |
2.14.23. Listar documentos de relatividade
Esta operação lista todos os documentos presentes no Espaço de Trabalho da Relatividade.
As seguintes configurações estão disponíveis:
-
Consulta de escopo: Cruze as referências dos DocIDs dos espaços de trabalho Relativity com os documentos no caso Nuix neste escopo.
-
Marcar itens correspondentes como: A tag a ser atribuída aos documentos no escopo no caso Nuix que possuem os mesmos DocIDs que os documentos do espaço de trabalho Relativity.
-
Exportar DocIDs em: O caminho e o nome do arquivo no qual gravar a lista de DocIDs dos espaços de trabalho do Relativity. Cada linha conterá um único DocID.
2.14.24. Adicionar script de relatividade
Esta operação adiciona o script especificado ao Workspace, usando as seguintes configurações:
-
Identificador de script: O script para adicionar ao Relativity Workspace
-
Identificador do aplicativo: O aplicativo no qual o script será executado, esta configuração é opcional.
| Para adicionar um script ao Relativity Workspace, primeiro defina-o no Biblioteca de scripts de relatividade. O Biblioteca de scripts de relatividade está localizado na página inicial da Relativity em Aplicativos e scripts → Biblioteca de scripts de relatividade. |
2.14.25. Script de Execução de Relatividade
Esta operação executa um script em um espaço de trabalho Relativity ou no espaço de trabalho admin.
Opcionalmente, os valores de entrada podem ser fornecidos ao script. Para determinar os IDs de entrada necessários e os valores permitidos, execute o script sem nenhuma entrada e inspecione o log de execução.
Após a conclusão do script, eventuais erros serão armazenados no nome do parâmetro {last_relativity_script_error}.
A saída do script pode ser exportada para um arquivo do seguinte tipo:
-
CSV: Use a extensão
.csv -
PDF: Use a extensão
.pdf -
XLSX: Use a extensão
.xlsx, os padrões de exportação para esta opção se nenhum outro formato for encontrado, esta opção será usada.
2.14.26. Excluir script de relatividade
Esta operação exclui o script especificado, se existir.
2.14.27. Gerenciar Índice dtSearch Relativity
Esta operação executa uma construção de índice no índice dtSearch, usando as seguintes configurações:
-
Identificador de índice dtSearch: O índice dtSearch no qual executar as ações.
-
Ação do índice: A operação de construção do índice a ser executada no índice, a operação de construção é uma das seguintes:
-
Compilação completa
-
Compilação incremental
-
Compactar índice
-
Ativar índice
-
Desativar índice
-
-
Aguarde a conclusão da ação: Aguarda a conclusão da operação de compilação antes de passar para a próxima operação.
2.14.28. Executar relatório de termo de pesquisa de relatividade
Esta operação executa um relatório de termo de pesquisa na instância Relativity, usando as seguintes configurações:
-
Identificador do relatório do termo de pesquisa: O relatório de termos de pesquisa a ser executado
-
Tipo de execução do relatório: O tipo de execução do relatório a ser executado, o tipo de execução do relatório é um dos seguintes:
-
Executar todos os termos
-
Executar termos pendentes
-
-
Localização dos resultados do relatório: Opcional, o local para exportar os resultados csv do relatório
Uma vez concluída esta operação, os resultados serão armazenados como um objeto json no parâmetro {relativity_search_term_results_json}. Os resultados terão o seguinte formato:
{
"results": [
{
"Name": "apples",
"Documents with hits": "16",
"Documents with hits, including group": "0",
"Unique hits": "",
"Last run time": "2/10/2023 4:08 AM"
},
{
"Name": "automate",
"Documents with hits": "72",
"Documents with hits, including group": "0",
"Unique hits": "",
"Last run time": "2/10/2023 4:08 AM"
},
{
"Name": "sensitive",
"Documents with hits": "2",
"Documents with hits, including group": "0",
"Unique hits": "",
"Last run time": "2/10/2023 4:08 AM"
}
]
}
Os resultados do relatório de termos de pesquisa são armazenados na matriz de resultados e as propriedades dentro dos objetos são os campos correspondentes à exibição dos resultados do relatório de termos de pesquisa.
O parâmetro {relativity_search_term_results_json} pode ser usado em um script para adicionar lógica aos resultados do relatório de termos de pesquisa, por exemplo, o script a seguir imprime apenas os resultados que foram vistos pelo menos uma vez:
# Example script only showing terms with hits
results_object = parameters.getJsonObject("{relativity_search_term_results_json}")
results_array = results_object["results"]
# Header which indicates how many times it was seen
hits_header = "Documents with hits"
# Only print a result if it was seen at least one time
for result in results_array:
if int(result[hits_header]) > 0:
for key in result.keySet():
print(key + ": " + result[key])
# Separate results
print("\n")
Comunicando
Esta opção gera um relatório de termos de pesquisa em formato Excel, com base em um arquivo de modelo. O relatório usa a planilha _REL_RUN_SEARCH_TERMS_ do modelo.
| Consulte Processing Report para obter informações sobre como usar um modelo personalizado. |
2.14.29. Exportar Pesquisas Salvas de Relatividade
Esta operação converte pesquisas salvas para o formato Automate Relativity Query Language e exporta as pesquisas salvas para um arquivo csv, usando as seguintes configurações:
-
Localização de exportação de pesquisa salva: O local para exportar os resultados csv
Após a conclusão desta operação, o local do arquivo csv será armazenado no parâmetro {relativity_saved_searches_file}.
Comunicando
Esta opção gera um relatório de pesquisa salvo em formato Excel, com base em um arquivo de modelo. O relatório usa a _REL_EXPORT_SAVED_SEARCH_ planilha do modelo.
| Consulte Processing Report para obter informações sobre como usar um modelo personalizado. |
2.14.30. Criar pesquisas salvas de relatividade
Esta operação cria pesquisas salvas usando Automate Relativity Query Language, usando as seguintes configurações:
-
Pesquisas salvas:
-
Pasta: O caminho da pasta, se o caminho não existir, ele será criado
-
Nome: O nome da consulta
-
Consulta: A string da linguagem de consulta da relatividade que será convertida na pesquisa salva
-
Escopo: O escopo da pesquisa salva
-
Campos: Os campos da pesquisa salva, os campos são separados por
,vírgulas -
Ordenação: Os campos de classificação da pesquisa salva, os campos de classificação são separados por
,vírgulas e contêm uma direção de classificação entre[]colchetes. Por exemplo, se o usuário desejasse classificar pelo ID do artefato em ordem crescente, o usuário forneceriaArtifact ID [Ascending]para a coluna de classificação. Um usuário pode fornecer apenas dois valores possíveis para a direção de classificaçãoAscendingouDescending
-
Além de fornecer os valores das buscas salvas manualmente, o usuário também pode carregar de um arquivo CSV ou TSV, por exemplo:
Folder,Name,Query,Scope,Scope Folders,Fields,Sorting
Admin Searches,Produced Documents,[Bates Beg] is_set,WORKSPACE,,"Edit,File Icon,Control Number,Bates Beg,Bates End",Bates Beg [Ascending]
Admin Searches,Extracted Text Only,[Extracted Text] is_set,FOLDERS,Temp\\Tes,Extracted Text,
As pesquisas salvas também podem ser carregadas de um arquivo durante a execução do workflow, utilizando a opção Arquivo de pesquisas salvas.
2.14.31. Automatizar a Linguagem de Consulta de Relatividade
A Automate Relativity Query Language é uma linguagem personalizada usada para criar pesquisas salvas do Relativity. Essa linguagem pega o formulário de criação de pesquisas salvas do Relativity e o converte em uma linguagem de consulta baseada em texto para permitir que os fluxos de trabalho automatizem a criação de pesquisas salvas.
Esta linguagem é composta de um monte de expressões, cada expressão contém um nome de campo de documento, operador e um valor. Cada expressão é então unida por um e ou um ou que atua como um operador lógico entre as duas expressões.
As expressões também podem ser agrupadas para formar grupos lógicos que contêm uma ou mais expressões entre parênteses. Expressões dentro de grupos lógicos serão avaliadas juntas e o resultado de um grupo lógico são as expressões avaliadas dentro. Não há limite para quantas vezes uma expressão pode ser aninhada.
Nome do campo do documento O nome do campo do documento corresponde
aos campos do documento no Relativity, para declarar o nome do campo do documento em uma expressão, coloque o nome do campo entre colchetes. Por exemplo, se o usuário quiser usar o nome do campo Número de controle, então na expressão ele será declarado como [Número de controle].
| Ao usar um Pesquisa salva ou um Índice de pesquisa como um campo de documento na expressão, eles são declarados da seguinte forma: [Pesquisa salva] para pesquisas salvas e [Pesquisa de índice] para pesquisas de índice. |
Operador O operador de uma expressão define como o valor é avaliado,
existem dois tipos diferentes de operadores Operadores binários que esperam um valor e Operadores unários que não exigem um valor. Para declarar o operador em uma expressão, o usuário deve primeiro declarar o nome do campo do documento e, em seguida, fornecer um dos seguintes operadores listados na tabela abaixo.
| Operador | Exemplo |
|---|---|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
Valor O valor da expressão define qual valor o usuário espera do
campo do documento. Para declarar um valor em uma expressão, o nome do campo do documento e o operador devem ser declarados e, em seguida, o usuário pode fornecer um valor colocando texto ou um número entre aspas duplas, por exemplo "Value 8" ou o usuário pode fornecer uma lista de números inteiros entre colchetes, por exemplo [102889, 1025568]. Os inteiros dentro dos colchetes correspondem a IDs de artefatos de objetos no Relativity.
Os valores também podem ser declarados como datas, os valores de data não precisam estar entre aspas duplas ou colchetes. Ao declarar um valor de data, apenas operadores específicos podem ser usados, os operadores que suportam valores de data são is, is_not, is_in, is_not_in, is_before, is_before_or_on, is_after, is_after_or_on, is_between, is_not_between.
Os operadores is_between e is_not_between só podem receber dois valores de data ou data e hora separados por um -. Por exemplo: 2019-01-01 - 2023-01-01 ou 2019-01-01T00:00:00 - 2022-12-31T23:59:59 |
Um valor de data pode ser um dos seguintes formatos:
-
Data: O formato de uma data é Ano (4 dígitos)
-Mês (2 dígitos)-Dia (2 dígitos). Por exemplo2023-04-13 -
Data hora:O formato de data e hora é Ano (4 dígitos)
-Mês (2 dígitos)-Dia (2 dígitos)THora (2 dígitos):Minuto (2 dígitos):Segundos (2 dígitos) opcionalmente o usuário também pode declarar os milissegundos adicion`-o `.seguido de 1 a 9 dígitos. Por exemplo:2019-05-10T05:00:13ou2019-05-10T05:00:13.8754 -
Mês: O formato do mês é o nome de um mês em maiúsculas. Por exemplo:
MarchouJuly -
Essa semana: O formato desta semana é a palavra minúscula, por exemplo
this week -
Este mês: O formato deste mês é a palavra minúscula, por exemplo
this month -
Semana que vem: O formato da próxima semana é a palavra minúscula, por exemplo
next week -
Semana passada: O formato da semana passada é a palavra minúscula, por exemplo
last week -
Últimos 7 dias: O formato dos últimos 7 dias é a palavra minúscula, por exemplo
last 7 days -
Últimos 30 dias: O formato dos últimos 30 dias é a palavra minúscula, por exemplo
last 30 days
Exemplos de consultas de pesquisa salvas
E-mails com anexos entre duas datas:
[Email Subject] is_set and ([Number of Attachments] is_not "0" and [Date Sent] is_between 2021-08-04 - 2023-02-28T23:59:59.997)
Documentos produzidos com erros de produção, classificados por tamanho de arquivo:
[Bates Beg] is_set and [Production Errors] is "true"
Documentos sem texto extraído:
[Extracted Text] is_not_set or [Extracted Text Size] is "0"
2.14.32. Permissões substituídas do espaço de trabalho de relatividade de consulta
Esta operação exporta permissões herdadas substituídas, usando a seguinte configuração:
-
Arquivo de saída de permissões: O local para exportar o arquivo JSON de permissões
-
escopo do objeto:
-
Tipo de objeto: O tipo do objeto, por exemplo Pasta
-
Nome do objeto: Opcionalmente, o nome do objeto, por exemplo Encenação. Para consultar todos os objetos com um tipo específico, deixe o campo nome em branco.
-
Além de fornecer os valores para os tipos de objeto manualmente, o usuário também pode carregar de um arquivo CSV ou TSV, por exemplo:
Folder Admin
Folder Staging
View
O escopo do objeto também pode ser carregado de um arquivo durante a execução do workflow, utilizando a opção Arquivo de escopo do objeto.
2.14.33. Aplicar permissões sobrescritas do espaço de trabalho de relatividade
| Antes de executar esta operação em um espaço de trabalho de produção, execute esta operação em um espaço de trabalho de teste criado a partir do mesmo modelo ou faça um backup do espaço de trabalho de produção para garantir que o resultado desejado seja alcançado. |
Esta operação aplica permissões herdadas substituídas usando as seguintes configurações:
-
Combine objetos por:
-
ID e nome do artefato: Os objetos do espaço de trabalho de destino devem ter o mesmo nome e ID do artefato que os objetos do arquivo de permissões para serem correspondentes.
-
Nome: Os objetos do espaço de trabalho de destino devem ter o mesmo nome que os objetos do arquivo de permissões.
-
-
Novo comportamento do objeto: A ação a ser executada quando um objeto é identificado no espaço de trabalho de destino, mas o objeto não existe no arquivo de permissões:
-
Não altere as permissões para objetos não presentes no arquivo de permissões
-
Redefinir permissões para objetos não presentes no arquivo de permissões
-
-
Ignorar objetos: (Opcional) Ignore a aplicação de permissões em objetos definidos na tabela
-
Tipo de objeto: O nome do tipo de objeto, por exemplo Visualizar
-
Nome do objeto: O nome do objeto
-
-
Arquivo de permissões sobrescrito: Um arquivo de permissões criado pela operação Permissões substituídas do espaço de trabalho de relatividade de consulta.
-
Permissões sobrescritas JSON: Opcionalmente, o conteúdo de um arquivo de permissões.
Comunicando
Esta opção gera um relatório de permissões substituídas em formato Excel, com base em um arquivo de modelo. O relatório usa a _REL_OVERWRITTEN_PERMISSIONS_ planilha do modelo.
| Consulte Processing Report para obter informações sobre como usar um modelo personalizado. |
2.14.34. API de Relatividade de Chamada
Esta operação fará uma chamada de API para Relativity usando a configuração atual de Configure Relativity Connection, usando as seguintes configurações:
-
Verbo: O verbo HTTP, como
GETouPOST. -
Ponto final: O ponto de extremidade na API Relativity.
-
Parâmetros: Opcional, parâmetros de URL.
-
Corpo: A solicitação JSON.
Depois que a chamada da API for concluída, os seguintes parâmetros serão preenchidos:
-
{relativity_call_api_response_code}: O código de resposta HTTP. -
{relativity_call_api_response_headers}: Os cabeçalhos de resposta, codificados em JSON. -
{relativity_call_api_response_body}: O corpo da resposta.
2.14.35. Excluir Pesquisa Salva de Relatividade
Esta operação exclui uma procura salva especificada ou todas as procuras salvas de uma área de trabalho.
2.14.36. Executar conjunto de imagens de relatividade
Esta operação executa o conjunto de imagens especificado, usando as seguintes configurações:
-
Identificador do conjunto de imagens: O Nome, ID do Artefato ou Nome (Curtir) do conjunto de imagens.
-
Ocultar imagens para revisão QC: Quando ativado, impede que os usuários visualizem as imagens até que o processo de revisão do QC seja concluído.
-
Aguarde a conclusão: Aguarda até que o conjunto de imagens termine a execução.
2.14.37. Excluir Índice de Relatividade
Esta operação exclui o índice especificado, se existir.
2.14.38. Criar Índice Analítico de Relatividade
Esta operação cria um índice analítico, usando as seguintes configurações:
-
Nome: O nome do índice analítico
-
Tipo de índice: O tipo de índice, Conceptual ou Classificação
-
Identificador de pesquisa salvo: O Nome, ID do Artefato ou Nome (Curtir) da pesquisa salva
-
Identificador do servidor de análise: O Nome, ID do Artefato ou Nome (Curtir) do servidor analítico
-
Ordem: A ordem do índice visto no menu suspenso dentro do Relativity, por exemplo, definir o valor como
1faria com que o índice fosse visto primeiro em todos os menus suspensos -
Arquivo de destinatários de notificação por e-mail: (Opcional) A lista de destinatários de e-mail notificados durante o preenchimento e construção do índice, por exemplo:
Email Notification Recipient
usera@example.com
userb@example.com
userc@example.com
Além das configurações acima, os índices analíticos conceituais têm as seguintes opções avançadas
-
Opções avançadas
-
Arquivo de palavras de parada de conceito: (Opcional) Um arquivo contendo palavras a serem suprimidas do índice
-
Continue as etapas do índice até a conclusão: (Opcional) Indicado para concluir automaticamente todas as etapas necessárias para ativar um índice analítico após iniciar uma etapa
-
Dimensões: (Opcional) O número de dimensões do espaço conceitual no qual os documentos são mapeados quando o índice é criado
-
Ativar filtro de cabeçalho de e-mail: (Opcional) remove campos de cabeçalho comuns (como
To,FromeDate) ereply-indicatorlinhas -
Otimize o conjunto de treinamento: (Opcional) Indica se deve selecionar apenas documentos conceitualmente relevantes da pesquisa salva do conjunto de treinamento
-
Remover documentos com erros durante o preenchimento: (Opcional) Remove documentos de serem preenchidos quando eles apresentam erros em um preenchimento anterior
-
Remover assinaturas e rodapés em inglês: (Opcional) Indica se deve remover assinaturas e rodapés em e-mails em inglês
-
Arquivo de filtros de conteúdo repetido: (Opcional) Um arquivo contendo filtros de conteúdo repetidos associados ao índice
-
Conjunto de treinamento: (Opcional) O Nome, ID do Artefato ou Nome (Curtir) da busca salva para treinamento
-
Exemplo Arquivo de palavras de parada de conceito:
Stop Words
and
a
can
Exemplo Arquivo de filtros de conteúdo repetido, os filtros são identificadores por nome:
Content Filters
Credit Card Regex Filter
Email Address Filter
2.14.39. Executar pesquisas salvas de relatividade
Essa operação executa pesquisas salvas na instância Relativity e retorna a contagem de itens, usando as seguintes configurações:
-
Opções de execução: Como o usuário irá recuperar as buscas salvas para executar:
-
Todas as pesquisas salvas no espaço de trabalho: Executa todas as pesquisas salvas no espaço de trabalho
-
Todas as pesquisas salvas no contêiner de pesquisa: Executa todas as pesquisas salvas no contêiner de pesquisa especificado
-
Uma única pesquisa salva: Executa a pesquisa salva especificada
-
-
Identificador de pesquisa salvo: O Nome, ID do Artefato ou Nome (Curtir) da pesquisa salva
-
Pesquisar identificador de contêiner: O Nome, ID do Artefato ou Nome (Curtir) do contêiner de pesquisa
Uma vez concluída esta operação, os resultados serão armazenados como um objeto json no parâmetro {relativity_run_saved_search_results_json}. Os resultados terão o seguinte formato:
{
"results": [
{
"Name": "All Documents",
"Query": "[Artifact ID] is_set",
"Hits": 163,
"Folder": "Admin Searches\\Tests"
},
{
"Name": "Extracted Text Only",
"Query": "[Extracted Text] is_set",
"Hits": 113,
"Folder": ""
},
{
"Name": "Produced Documents",
"Query": "[Control Number] is_set and [Document] is \"true\"",
"Hits": 65,
"Folder": "Admin Searches"
}
]
}
Os resultados das buscas salvas que foram executadas são armazenados no array results, as propriedades dentro dos objetos são:
-
Nome: O nome da pesquisa salva
-
ID do Artefato: O ID do artefato da pesquisa salva
-
Exitos: A quantidade de documentos retornados ao executar a pesquisa salva
O parâmetro {relativity_run_saved_search_results_json} pode ser usado em um script para adicionar lógica aos resultados da pesquisa salva, por exemplo, o script a seguir imprimirá apenas os resultados que tiverem pelo menos um hit:
# Example script only showing saved searches with atleast one document
results_object = parameters.getJsonObject("{relativity_run_saved_search_results_json}")
results_array = results_object["results"]
# Only print a result if it has atleast one document
for result in results_array:
if int(result["Hits"]) > 0:
print("Folder: " + result["Folder"])
print("Name: " + result["Name"])
print("Query: " + result["Query"])
print("Hits: " + str(result["Hits"]))
# Separate results
print("\n")
Comunicando
Esta opção gera um relatório de pesquisa salvo em formato Excel, com base em um arquivo de modelo. O relatório usa a _REL_RUN_SAVED_SEARCH_ planilha do modelo.
| Consulte Processing Report para obter informações sobre como usar um modelo personalizado. |
2.14.40. Gerenciar índice analítico de relatividade
Esta operação executa uma ação de índice no índice analítico especificado, usando as seguintes configurações:
-
Identificador de índice analítico: O Nome, ID do Artefato ou Nome (Regex) do índice analítico
-
Tipo de índice analítico: O tipo de índice analítico Conceptual ou Classificação
-
Ação de trabalho analítico existente: O comportamento quando uma tarefa de índice analítico existente é encontrada
-
Ignore a execução de um trabalho de índice analítico se outro estiver em andamento para o mesmo índice
-
Interrompa a ação do trabalho de análise em execução no momento e inicie um novo trabalho
-
-
Ação do índice: A ação a ser executada no índice analítico
-
população completa: executa a população de índice completa
-
população incremental: Executa uma população incremental
-
Construir índice: Executa uma compilação de índice completa
-
Repetir erros: Retenta erros que ocorreram durante a população
-
Remover documentos com erro: Remove documentos com erros
-
Ativar: Ativa o índice para consulta
-
Desativar: Desativa consultas no índice
-
-
Aguarde a conclusão: Aguarda a conclusão do trabalho de indexação
| Ao usar a ação de índice Construir índice em um índice analítico, o índice analítico deve ser desativado. |
2.14.41. Executar conjunto de OCR de relatividade
Esta operação executa o conjunto de OCR especificado, usando as seguintes configurações:
-
Identificador do conjunto de OCR: O Nome, ID do Artefato ou Nome (Curtir) do conjunto de OCR.
-
Ação de trabalho de conjunto de OCR existente: Ação a ser executada quando um trabalho de conjunto de OCR existente estiver em execução
-
Parar: Interrompa o trabalho de conjunto de OCR em execução e inicie um novo trabalho
-
Pular: Ignore a execução de um trabalho de conjunto de OCR se outro estiver em andamento para o mesmo conjunto
-
-
Aguarde a conclusão: Aguarda até que o conjunto de OCR termine a execução.
2.14.42. Exportar metadados de relatividade
Esta operação exporta o tipo de metadados especificado, usando as seguintes configurações:
-
Tipo de metadados: O tipo de metadados a exportar, Visualizar ou Pesquisa salva
-
Identificador de metadados: O Nome, ID do Artefato ou Nome (Curtir) dos metadados.
-
Localização do tipo de metadados: O local para exportar os metadados, seja de Espaço de trabalho atual ou Área de trabalho do administrador
-
Condição personalizada: Permite que o usuário defina uma consulta mais granular ao exportar metadados, consulte
https://platform.relativity.com/RelativityOne/Content/REST_API/recurso_Tasks/Querying_para_resources.htm#_Syntax_para_query_conditionspara obter mais informações.
A saída da exibição pode ser exportada para um arquivo do seguinte tipo:
-
CSV: Use a extensão
.csv -
PDF: Use a extensão
.pdf -
XLSX: Use a extensão
.xlsx, os padrões de exportação para esta opção se nenhum outro formato for encontrado, esta opção será usada.
2.14.43. Criar conjunto de produção de relatividade
Esta operação cria um conjunto de Produção, usando as seguintes configurações:
-
Nome: O nome do conjunto de produção
-
Fontes de dados de produção: As fontes de dados para a produção
-
Nome da fonte de dados: O nome da fonte de dados
-
Tipo de fonte de dados: O tipo de dados a produzir, um dos seguintes Imagens, Nativos ou Imagens e Nativos
-
Identificador de pesquisa salvo: O Nome, ID do Artefato ou Nome (Curtir) da pesquisa salva
-
Espaço reservado para imagem: A ação a ser executada ao usar espaços reservados para imagens, seja Nunca use espaço reservado para imagem, Sempre use espaço reservado para imagem ou Quando não existe nenhuma imagem
-
Identificador de espaço reservado: O Nome, ID do Artefato ou Nome (Curtir) do espaço reservado
-
Identificador do conjunto de marcação: O Nome, ID do Artefato ou Nome (Curtir) do conjunto de marcação
-
Gravar redações: Tempo para queimar redações ao produzir produções do tipo imagem
-
-
Criar conjunto de produção a partir do modelo: Crie um novo conjunto de produção usando as configurações de um conjunto de produção existente
-
Identificador de modelo de conjunto de produção: O Nome, ID do Artefato ou Nome (Curtir) do modelo de conjunto de produção
-
O conjunto de produção existe em outro espaço de trabalho: Habilitar esta opção permite que o usuário copie as configurações do modelo de conjunto de produção de qualquer área de trabalho
-
Identificador da área de trabalho: O Nome, ID do Artefato ou Nome (Curtir) do espaço de trabalho do conjunto de produção do modelo
-
-
Criar conjunto de produção a partir das configurações Crie uma nova produção usando as configurações na operação
-
Tipo de numeração: O tipo de numeração do documento
-
Prefixo: A string mostrada antes do número de bates
-
Sufixo: (Opcional) A string mostrada após o número de bates
-
Número inicial: O número de bates inicial
-
Número de dígitos de numeração: O número que representa o número de dígitos usados para numeração em nível de documento, intervalo de 1 a 7
-
Fonte de marca: O tipo de fonte usada para branding
-
Tamanho da fonte da marca: O tamanho da fonte a ser usada para branding
-
Fonte da marca da escala: Faz com que a fonte da marca seja dimensionada
-
Fonte de marca envolvente: Faz com que o texto da marca seja quebrado quando se sobrepõe a cabeçalhos ou rodapés adjacentes
-
2.14.44. Executar Conjunto de Produção de Relatividade
Esta operação executa um conjunto de Produção, usando as seguintes configurações:
-
Identificador do conjunto de produção: O Nome, ID do Artefato ou Nome (Curtir) do conjunto de produção
-
Ação do conjunto de produção: A ação a ser realizada no set de produção
-
Estágio: Prepara o conjunto de produção para preparar a produção de documentos
-
Corre: Iniciar um trabalho no set de produção e produzir documentos preparados
-
Encenação e execução: Prepara o conjunto de produção para a produção de documentos e imediatamente inicia um trabalho no conjunto de produção
-
-
Aguarde a conclusão: Espera o conjunto de produção terminar antes de passar para a próxima operação
2.15. Pesquisa Semântica
Essas operações configuram o mecanismo semântico e executam pesquisas de similaridade.
2.15.1. Configurar mecanismo de busca semântico
Esta operação define a configuração do Semantic Search Engine. Esta operação deve ser usada em um fluxo de trabalho antes que os dados sejam carregados, ou recarregados, para que tenha efeito.
As seguintes configurações podem ser definidas:
-
Usar serviço semântico: Selecione esta opção para usar um serviço semântico definido nos Serviços de Terceiros. Como alternativa, o mecanismo semântico incorporado será usado.
-
ID de serviço semântico: O ID do serviço semântico a ser usado.
-
Modelo de incorporação de texto: O modelo a ser usado para construir o índice semântico do texto, por exemplo
intfloat/multilingual-e5-small. Se nenhum valor for especificado, o texto do item não será usado para construir o índice semântico. -
Modelo de incorporação de imagens: O modelo a ser usado para construir o índice semântico da imagem, por exemplo
openai/clip-vit-large-patch14. Se nenhum valor for especificado, a imagem do item não será usada para construir o índice semântico.
2.15.2. Encontre itens semanticamente semelhantes
Esta operação busca itens que são semanticamente semelhantes ao escopo e os marca.
2.16. SQL
Estas operações transferem dados entre o caso Nuix e um servidor SQL e permitem a execução de comandos SQL arbitrários.
2.16.1. Comando SQL
Esta operação se conecta a um banco de dados SQL e executa comandos SQL usando as seguintes opções:
-
Plataforma SQL: A plataforma SQL em que os comandos serão executados, Microsoft SQL (usando o driver JTDS ou nativo) e PostgreSQL.
-
Nome do servidor SQL: O nome do host SQL, por exemplo
localhost. -
Porta: A porta do host SQL, por exemplo
1433para Microsoft SQL,5432para PostgreSQL. -
Encriptação: O requisito para conexões JTDS criptografadas:
-
Desativado: Não usa criptografia.
-
Requeridos: Tenta usar uma conexão criptografada se compatível com o servidor
-
Requeridos: Requer o uso de uma conexão criptografada.
-
Assinado: Requer o uso de uma conexão criptografada, assinada com um certificado no Java Trust Store.
-
-
Instância: A instância do Microsoft SQL, por exemplo, ou em branco para a instância padrão.
-
Domínio: o domínio do Windows para autenticação Microsoft SQL ou em branco para Autenticação Integrada.
-
Nome do usuário: o nome de usuário usado para conectar-se ao banco de dados ou em branco para autenticação integrada.
-
Senha: a senha usada para conectar-se ao banco de dados ou em branco para autenticação integrada.
-
Base de Dados: o banco de dados SQL para executar comandos SQL.
Qu*PostgreSQL*o nenhum banco de dados é especificado us*PostgreSQL*o a plataforma SQL PostgreSQL, a operação tentará se conectar ao banco de dados postgres. Além disso, ao criar um banco de dados com PostgreSQL, o banco de dados não pode ser alterado com a mesma consulta. Para alterar o banco de dados criado, é necessária outra operação do Com*PostgreSQL*o SQL. |
-
Consulta SQL: A consulta SQL a ser executada.
| Esta operação pode ser usada para criar o banco de dados necessário para executar outras operações SQL. |
Exemplo de consulta SQL para criar um banco de dados:
CREATE DATABASE automate;
2.16.2. Metadados para SQL
Esta operação exporta os metadados de itens que correspondem à consulta de escopo para Microsoft SQL (usando o driver JTDS ou nativo) ou PostgreSQL.
Quando a tabela especificada não existir, esta operação tentará determinar cada tipo de coluna nos campos de metadados no perfil de metadados selecionado e criará uma tabela SQL com os tipos de coluna detectados.
Ao criar uma tabela SQL, o tipo NVARCHAR(MAX) será usado em Microsoft SQL e o tipo TEXT será usado PostgreSQL quando não for possível determinar o tipo de campo de metadados. |
2.16.3. Consulta do SQL
Esta operação consulta dados de um banco de dados SQL e adiciona metadados personalizados aos itens no escopo, além de exportar os dados consultados para um arquivo CSV.
O nome da primeira coluna da tabela precisa ser GUID ou DocID. As colunas subseqüentes correspondem aos campos de metadados a serem atribuídos.
Os aliases de coluna podem ser usados no lugar de colunas com os nomes GUID ou DocID. |
Amostra Microsoft SQL consulta com alias de coluna:
SELECT [Header One] as 'GUID'
,[Header Two] as 'File Type'
,[Header Two] as 'File Path'
FROM [TEST TABLE]
Amostra PostgreSQL consulta com alias de coluna:
SELECT "Header One" as "GUID"
,"Header Two" as "File Type"
,"Header Two" as "File Path"
FROM test_table
2.17. Verítono
Essas operações executam ações no Veritone.
2.17.1. Configurar conexão Veritone
Esta operação define o Serviço de terceiros Veritone que será usado para conectar ao Veritone. Esta operação é necessária para todas as outras operações que realizam ações no Veritone.
O ID do serviço Veritone deve ser especificado como um parâmetro do tipo Serviço Veritone.
2.17.2. Veritone Traduzir Itens
Esta operação executa um trabalho de tradução do Veritone para o texto de cada item correspondente à consulta de escopo.
O texto do item é extraído dos itens Nuix e enviado para a Veritone para ser traduzido. Os resultados são então salvos no item Nuix.
A operação tem as seguintes configurações:
-
Consulta de escopo: A consulta Nuix para selecionar os itens a serem traduzidos.
-
Provedor do idioma de origem: O método de determinar o idioma de um item.
-
Explícito: Forneça explicitamente o idioma do item.
-
Nuix detectou idioma: Use o idioma detectado pelo Nuix.
-
-
Retorno ao idioma de origem explícito se o idioma do item não puder ser determinado: Se o Nuix não conseguir detectar o idioma do item, retorne ao idioma de origem fornecido explicitamente.
-
Linguagem de origem explícita: O idioma de origem fornecido explicitamente.
-
Língua alvo: O idioma de destino da tradução.
-
Aparar o texto do corpo em: se marcado, o tamanho em caracteres após o qual o corpo do texto dos itens é cortado antes de ser enviado ao Veritone para tradução.
-
Salvar resultado da tradução como: Como salvar o texto traduzido.
-
Como texto do item: Salve o texto traduzido como texto do item.
-
Como metadados personalizados: Salve o texto traduzido como metadados personalizados.
-
Como item filho: Salve o texto traduzido como um item filho.
-
-
Nome de metadados personalizado: O nome de metadados personalizados a ser usado ao salvar o texto traduzido como metadados personalizados.
-
Pasta de saída: O local da pasta onde os arquivos de texto traduzidos devem ser salvos ao adicioná-los como um item filho.
-
Modificações de texto
-
Acrescentar: Acrescente o texto traduzido ao final do texto do documento existente.
-
Substituir: Substitua o texto do documento pelo texto traduzido.
-
| As opções Marcar itens com falha como têm o mesmo comportamento da operação Exportação Legal. |
| As opções Marcar itens traduzidos como têm o mesmo comportamento que a opção Marcar itens com falha como, mas para itens traduzidos com sucesso. |
| As opções Marque itens de idioma não suportados como têm o mesmo comportamento que a opção Marcar itens com falha como, mas para itens cujo idioma não tinha um mecanismo de tradução Veritone compatível. |
2.17.3. Veritone Transcrever Itens
Esta operação executa um trabalho de transcrição do Veritone para cada item correspondente à consulta de escopo.
A operação foi projetada para ter melhor desempenho quando os itens Nuix têm dados binários armazenados.
| Ao executar a operação Veritone Transcrever Itens em itens Nuix que não têm dados binários armazenados, o processo levará significativamente mais tempo. Antes de executar esta operação, armazene os binários dos itens durante a operação Adicionar evidência ou use a operação Preencher armazenamento binário para preencher os binários dos itens que precisam ser transcritos. |
Os itens são extraídos como arquivos nativos dos itens Nuix e enviados para a Veritone para serem transcritos. Os resultados são então salvos no item Nuix.
A operação tem as seguintes configurações:
-
Consulta de escopo: A consulta Nuix para selecionar os itens a serem transcritos.
-
Língua alvo: O idioma alvo da transcrição.
-
Salvar resultado da transcrição como: Como salvar o texto transcrito.
-
Como texto do item: Salve o texto transcrito como texto do item.
-
Como metadados personalizados: Salve o texto transcrito como metadados personalizados.
-
-
Nome de metadados personalizado: O nome de metadados personalizados a ser usado ao salvar o texto transcrito como metadados personalizados.
-
Modificações de texto
-
Acrescentar: Acrescente o texto transcrito ao final do texto do documento existente.
-
Substituir: Substitua o texto do documento pelo texto transcrito.
-
| As opções Marcar itens com falha como têm o mesmo comportamento da operação Exportação Legal. |