Los aciertos del software de inteligencia artificial variaron considerablemente entre la versión 3.5 y la 4, la cual fue estrenada recientemente. Revisa acá los resultados que ChatGPT obtuvo en la última prueba PAES.
Es una de los sistemas más conocidos cuando se habla de inteligencia artificial (IA). ChatGPT tiene la capacidad de generar textos a partir de simples directrices que les entregan los usuarios, una función que ya está siendo utilizada por muchos para adquirir ideas, redactar cartas o incluso elaborar planes de viaje.
Si bien, numerosos especialistas han informado que esta plataforma puede cometer errores —por lo que no se debe confiar ciegamente en que todo lo que arroja es verídico— , también hay ciertas pruebas que ha logrado pasar exitosamente.
Este es el caso de la última PAES, la cual fue respondida por el programa creado por la empresa OpenAI.
El sitio EvoAcademy realizó el experimento y aseguró que la versión 3.5 de ChatGPT (gratuita) acertó más del 75% de las preguntas en cada prueba, mientras que la más reciente, GPT-4 (pagada), respondió bien más del 93% y solo se equivocó en una alternativa.
Según estimaron desde la citada fuente, tales resultados posicionan las calificaciones de GPT-4 en el 1% de los puntajes más altos en la evaluación de Comprensión Lectora.
La metodología del experimento solo consideró la prueba mencionada en el párrafo anterior y la de Historia y Ciencias Sociales, debido a que las otras tenían varias imágenes que hacían más difícil el procesamiento en el programa.
Junto con ello, las evaluaciones utilizadas fueron las publicadas en la página del DEMRE, las cuales corresponden a la del proceso de Admisión 2023.
La diferencia de aciertos entre la versión 3.5 y la 4 fue sustancial: en Comprensión Lectora, la primera sacó 761 puntos y la segunda 960, mientras que en Historia y Ciencias Sociales, la primera obtuvo 821 y la segunda 955.
Aún así, desde el sitio destacaron que “este ejercicio no debe ser considerado como un estudio acabado y riguroso”, ya que tiene un fin más bien experimental con el propósito de invitar a pensar en los posibles usos de esta tecnología en ámbitos como el de la educación.
Asimismo, previamente han habido múltiples casos en los que ChatGPT no ha podido responder satisfactoriamente otras evaluaciones
Por ejemplo, el ex presidente del Banco Central y actual decano de la Facultad de Economía y Negocios de la Universidad de Chile, José De Gregorio, sometió el software a una prueba de tres preguntas sobre economía a mediados de este mes.
Los resultados, publicados en LUN, sugirieron que pasa “apenas” el examen, según palabras del especialista.
“Se puede asimilar a un sistema predictivo, como el que tienes en tu teléfono que sugiere la siguiente palabra. En base a un texto que tú le das, lo continúa según el aprendizaje que tuvo, por lo tanto, no podemos decir que GPT 3.5 sea inteligente (…) ahora, acaba de salir la versión 4.0 y hay estudios que indican que ha mejorado la parte de interpretación y de aplicación de la lógica para sacar conclusiones”.
Bajo esta línea, Atik sentenció que “esto es una lucecita que indica que está empezando a adquirir cierta inteligencia”.
Fuente: La Tercera
Foto: La Tercera
Inserta este artículo con este código HTML:
<a href="https://www.redimin.cl/chatgpt-respondio-la-ultima-prueba-paes-estos-fueron-los-sorprendentes-resultados-de-la-inteligencia-artificial/">ChatGPT respondió la última prueba PAES: estos fueron los sorprendentes resultados de la Inteligencia Artificial</a>
¿Quieres que tu empresa tenga presencia en REDIMIN?
En REDIMIN, conectamos a tu marca con una audiencia especializada en el sector minero y contamos con más de 1 millón de usuarios activos al mes. Genera oportunidades para destacar tu empresa en un mercado clave y aprovecha nuestro alcance para maximizar tu visibilidad.
Ver Opciones de Publicidad