Captika se integra con OpenAI de forma de permitir la ejecución de preguntas (Prompts) sobre los textos extraidos. Esta integración permite mejorar la extracción y el reconocimiento de datos mediante el procesamiento del lenguaje natural, el reconocimiento óptico de caracteres, el aprendizaje automático y la integración con otros sistemas. Tambien automatiza y agiliza tareas que requieren la extracción de información de fuentes no estructuradas, mejorando la eficiencia y la precisión en diversos campos, como la gestión de documentos, la investigación y el análisis de datos.
Esta integración permite el consumo de OpenAI tanto de forma directa a OpenAI como mediante el consumo de OpenAI dentro de la nube Azure.
Regla | Función | |
---|---|---|
OpenAIPrompt (Pregunta) AzureOpenAIPrompt (Pregunta) | Es la regla mas simple y permite hacer una pregunta. Por defecto en este caso utilizara la conexion configurada por defecto en Captika y el modelo gpt-3.5-turbo, Temperatura = 0, Max Tokens = 36, dFrecuencyPenalty = 0 , dPresencePenalty = 0. Las preguntas pueden incluir el texto [TextStream] en este caso el Texto que se haya reconocido hasta el momento de la regla sera incoporado a la pregunta. Por ejemplo si al momento de la pregunta tenenemos el siguiente texto “La empresa esta conformada por el siguientes autoridades John Dohe como presidente, Jaime Velazquez como Vice-presidente y Harrison Wilde como apoderado” La pregunta podria ser: Separar con comas nombre de persona y cargo que encuentres en el siguiente texto; [TextStream] OpenAi devolveria algo asi:
| |
OpenAIPrompt (Pregunta,modelo,dTemperature,iMaxTokens,dTopP,dFrecuencyPenalty,dPresencePenalty) AzureOpenAIPrompt (Pregunta,text-davinci-003,0,360,1,0,0) | OpenAIPrompt (Pregunta,modelo,dTemperature,iMaxTokens,dTopP,dFrecuencyPenalty,dPresencePenalty) Pregunta Es la pregunta que queremos realizar Modelo nombre del modelo a utilizar (hay modelos mas economicos y especificos segun el a pregunta que se desea realizar:
iMaxToken La cantidad maxima de palabras/token que se espera de resultado. Esto genera un costo ya OpenAI cobra por token dTopP Este parámetro controla la diversidad de la generación de texto al limitar la selección de las palabras a un porcentaje específico del vocabulario más probable dFrecuencyPenalty Puede referirse a un término utilizado para penalizar palabras demasiado frecuentes en la generación de texto. Penalizar palabras comunes puede hacer que el modelo explore un vocabulario más amplio. dPresencePenalty Este término puede referirse a penalizar la repetición de ciertas palabras o frases en el texto generado para fomentar una mayor diversidad. Ejemplo OpenAIPrompt (Leer todo el estatuto y luego extraer los siguientes datos RAZON SOCIAL/,DOMICILIO/,REPRESENTANTE LEGAL/,DNI DEL REPRESENTANTE LEGAL/,USO DE FIRMA SOCIAL/,PLAZO DEL PRESIDENTE (ej: la duración del presidente o director es de tres (3) ejercicios)/, Devolver el resultado como un Json con las fechas convertidas a formato yyyy-MM-dd y cuando no se encuentra un valor dejarlo nulo del siguiente texto: """[TextStream]""",gpt-3.5-turbo-16k,0,2000) |