Captika se integra con OpenAI de forma de permitir la ejecución de preguntas (Prompts) sobre los textos extraidos. Esta integración permite mejorar la extracción y el reconocimiento de datos mediante el procesamiento del lenguaje natural, el reconocimiento óptico de caracteres, el aprendizaje automático y la integración con otros sistemas. Tambien automatiza y agiliza tareas que requieren la extracción de información de fuentes no estructuradas, mejorando la eficiencia y la precisión en diversos campos, como la gestión de documentos, la investigación y el análisis de datos.

Esta integración permite el consumo de OpenAI tanto de forma directa a OpenAI como mediante el consumo de OpenAI dentro de la nube Azure.

Regla

Función

OpenAIPrompt (Pregunta)

AzureOpenAIPrompt (Pregunta)

Es la regla mas simple y permite hacer una pregunta. Por defecto en este caso utilizara la conexion configurada por defecto en Captika y el modelo gpt-3.5-turbo, Temperatura = 0, Max Tokens = 36, dFrecuencyPenalty = 0 , dPresencePenalty = 0.

Las preguntas pueden incluir el texto [TextStream] en este caso el Texto que se haya reconocido hasta el momento de la regla sera incoporado a la pregunta.

Por ejemplo si al momento de la pregunta tenenemos el siguiente texto

“La empresa esta conformada por el siguientes autoridades John Dohe como presidente, Jaime Velazquez como Vice-presidente y Harrison Wilde como apoderado”

La pregunta podria ser:

Separar con comas nombre de persona y cargo que encuentres en el siguiente texto; [TextStream]

OpenAi devolveria algo asi:

{
   "autoridades":[
      {
         "nombre":"John Dohe",
         "cargo":"Presidente"
      },
      {
         "nombre":"Jaime Velazquez",
         "cargo":"Vicepresidente"
      },
      {
         "nombre":"Harrison Wilde",
         "cargo":"Apoderado"
      }
   ]
}

OpenAIPrompt (Pregunta,modelo,dTemperature,iMaxTokens,dTopP,dFrecuencyPenalty,dPresencePenalty)

AzureOpenAIPrompt (Pregunta,text-davinci-003,0,360,1,0,0)

OpenAIPrompt (Pregunta,modelo,dTemperature,iMaxTokens,dTopP,dFrecuencyPenalty,dPresencePenalty)

Pregunta

Es la pregunta que queremos realizar

Modelo

nombre del modelo a utilizar (hay modelos mas economicos y especificos segun el a pregunta que se desea realizar:

  • gpt-3.5

  • gpt-3.5-turbo

  • gpt-3.5-turbo-16k

  • gpt-3.5-turbo-auto (opción propia de Captika que en base a la cantidad de tokens ejecuta la opción gpt-3.5-turbo ó gpt-3.5-turbo-16k de forma de economizar costos)

  • gpt-4

iMaxToken

La cantidad maxima de palabras/token que se espera de resultado. Esto genera un costo ya OpenAI cobra por token

dTopP

Este parámetro controla la diversidad de la generación de texto al limitar la selección de las palabras a un porcentaje específico del vocabulario más probable

dFrecuencyPenalty

Puede referirse a un término utilizado para penalizar palabras demasiado frecuentes en la generación de texto. Penalizar palabras comunes puede hacer que el modelo explore un vocabulario más amplio.

dPresencePenalty

Este término puede referirse a penalizar la repetición de ciertas palabras o frases en el texto generado para fomentar una mayor diversidad.

Ejemplo

OpenAIPrompt (Leer todo el estatuto y luego extraer los siguientes datos RAZON SOCIAL/,DOMICILIO/,REPRESENTANTE LEGAL/,DNI DEL REPRESENTANTE LEGAL/,USO DE FIRMA SOCIAL/,PLAZO DEL PRESIDENTE (ej: la duración del presidente o director es de tres (3) ejercicios)/, Devolver el resultado como un Json con las fechas convertidas a formato yyyy-MM-dd y cuando no se encuentra un valor dejarlo nulo del siguiente texto: """[TextStream]""",gpt-3.5-turbo-16k,0,2000)