- SpaceX no logra repetir la captura del propulsor de Starship, con Trump como testigo
- SpaceX lista para nuevo vuelo de prueba de Starship, con Trump como testigo
- El diario de mayor tirada en Francia, Ouest-France, deja de publicar en X
- El FMI aprueba la sexta revisión del programa con Ucrania y abre la puerta a la entrega de 1.100 millones de dólares
- Walmart vuelve a aumentar sus previsiones de resultados tras un trimestre mejor de lo esperado
- España prevé regularizar a decenas de miles de inmigrantes más cada año
- Los tractores salen a las calles en Francia para decir "No al Mercosur"
- La sociedad debe "cambiar su actitud sobre la violación", afirma Gisèle Pelicot en Francia
- Lula urge en el G20 de Rio a llegar a un acuerdo en la COP29
- Trump elige a un excongresista como secretario de Transporte
- Las acciones del grupo de medios de Trump se disparan por rumores de compra de un sitio de criptomonedas
- La tormenta tropical Sara deja cuatro muertos en Honduras y Nicaragua
- Un café de mujeres en una provincia musulmana sacude la tradición
- Boeing comienza con los despidos anunciados para reducir el 10% de su plantilla
- Los reyes de España son aplaudidos al volver a la zona devastada en Valencia
- Francia seguirá "pulseando" con Von der Leyen contra el acuerdo UE-Mercosur, afirma su gobierno
- EEUU pedirá a un juez que obligue a Google a vender su navegador Chrome, según un reporte
- Secciones de la Gran Barrera sufren la peor mortalidad de coral jamás registrada
- Detenido el hijo de la princesa de Noruega por sospecha de violación
- Un militar retirado se encargará de la reconstrucción tras las inundaciones en Valencia
- Un hombre detenido tras un atropellamiento que dejó varios niños heridos en China
- Café de mujeres en provincia musulmana sacude la tradición
- "Numerosos" niños heridos por atropello frente a una escuela en China
- Xi insta a Sheinbaum a estrechar lazos en encuentro al margen de cumbre del G20
- Se espera que Trump asista al próximo lanzamiento de SpaceX, según medios de EEUU
- Tormenta tropical Sara deja cuatro muertos en Honduras y Nicaragua
- La tormenta tropical Sara dejó dos muertos y más de 120.000 afectados en Honduras
- Trump recurrirá al estado de emergencia y ejército para deportar a migrantes
- Ecuador declara una emergencia por los incendios forestales y el déficit hídrico
- Spirit Airlines va a la quiebra en el marco de un acuerdo con sus acreedores
- Europa produce menos plástico ante la competencia de Asia y EEUU, advierte una asociación sectorial
- Con la adhesión de 81 países, Lula lanza la alianza mundial contra el hambre
- Casi la quinta parte de casos de dengue son atribuibles al cambio climático, según un estudio
- Como "los Picapiedra": el calvario diario de los ecuatorianos por la falta de energía
- La IA parece desacelerarse en su camino hacia igualar al humano
- El músico Quincy Jones recibe un Óscar póstumo
- La deuda pública en España baja al 104,4% del PIB en el tercer trimestre
- S.T.A.L.K.E.R. 2, el esperado videojuego ucraniano que logró ver el día pese a la guerra
- ¿Francia puede bloquear el acuerdo comercial entre la UE y el Mercosur?
- Clima, guerras, Trump: el G20 bajo presión en la apertura de su cumbre en Brasil
- Trump designa a Brendan Carr como director de la Comisión Federal de Comunicaciones
- Ciclón en Filipinas deja ocho muertos y numerosos daños
- Los pingüinos de Ciudad del Cabo necesitan paz y comida
- Filipinas hace limpieza después de la sexta gran tormenta en un mes
- 迪拜棕榈岛索菲特美憬阁酒店: 五星級健康綠洲
- The Retreat Palm Dubai MGallery by Sofitel: Пятизвездочный велнес-оазис
- The Retreat Palm Dubai MGallery by Sofitel: Un oasis de bienestar de cinco estrellas
- Trump nombra al empresario del fracking Chirs Wright secretario de Energía
- Sara deja un muerto y miles de afectados en Honduras y se dirige a Belice y Guatemala
- Ucrania denuncia un ataque ruso "masivo" contra su red energética
ChatGPT y las IA conversacionales siguen siendo incapaces de razonar, según un estudio
Los modelos de lenguaje de gran tamaño (LLM), como ChatGPT, uno de los sistemas de inteligencia artificial más populares del mundo, siguen teniendo dificultades para razonar usando la lógica y se equivocan con frecuencia, según un estudio.
Estos robots conversacionales reflejan los sesgos de género, éticos y morales de los humanos presentes en los textos de los que se alimenta, recuerda el estudio aparecido el miércoles en la revista Open Science de la Royal Society británica.
¿Pero reflejan también los sesgos cognitivos de los humanos en las pruebas de razonamiento?, se preguntó Olivia Macmillan-Scott, estudiante de doctorado del departamento de ciencias de computación de la University College de Londres (UCL).
El resultado de la investigación es que los LLM muestran "un razonamiento a menudo irracional, pero de una manera diferente a la de los humanos", explica la investigadora a AFP.
Bajo la dirección de Mirco Musolesi, profesor y director del Machine Intelligence Lab de UCL, Macmillan-Scott sometió siete modelos de lenguaje -dos versiones de ChatGPT (3.5 y 4) de OpenAI, Bard de Google, Claude 2 de Anthropic y tres versiones de Llama de Meta- a una serie de pruebas psicológicas pensadas para humanos.
¿Cómo afrontan, por ejemplo, el sesgo que lleva a favorecer soluciones con el mayor número de elementos, en detrimento de las que tiene una proporción adecuada?
Un ejemplo. Si tenemos una urna con nueve canicas blancas y una roja y otra urna con 92 blancas y 8 rojas, ¿cual hay que elegir para tener más posibilidades de sacar una canica roja?
La respuesta correcta es la primera urna, porque hay un 10% de posibilidades frente a solo un 8% para la segunda opción.
Las respuestas de los modelos de lenguaje fueron muy inconstantes. Algunos respondieron correctamente seis de cada diez veces la misma prueba. Otros solo dos de diez aunque la prueba no cambió.
"Obtenemos una respuesta diferente cada vez", apuntala la investigadora.
Los LLM "pueden ser muy buenos para resolver una ecuación matemática complicada pero luego te dicen que 7 más 3 son 12", afirma.
En un caso el modelo denominado Llama 2 70b se negó de manera sorprendente a responder a una pregunta alegando que el enunciado contenía "estereotipos de género dañinos".
- "No estoy muy seguro" -
Estos modelos "no fallan en estas tareas de la misma manera que falla un humano", señala el estudio.
Es lo que el profesor Musolesi llama "errores de máquina".
"Hay una forma de razonamiento lógico que es potencialmente correcta si la tomamos por etapas, pero que está mal tomada en su conjunto", apunta.
La máquina funciona con "una especie de pensamiento lineal", dice el investigador, y cita al modelo Bard (ahora llamado Gemini), capaz de realizar correctamente las distintas fases de una tarea pero que obtiene un resultado final erróneo porque no tiene visión de conjunto.
Sobre esta cuestión el profesor de informática Maxime Amblard, de la Universidad francesa de Lorena, recuerda que "los LLM, como todas las inteligencias artificiales generativas, no funcionan como los humanos".
Los humanos son "máquinas capaces de crear sentido", lo que las máquinas no saben hacer, explica a AFP.
Hay diferencias entre los distintos modelos de lenguaje y en general GPT-4, sin ser infalible, obtuvo mejores resultados que los demás.
Macmillan-Scott afirma sospechar que los modelos llamados "cerrados", es decir cuyo código operativo permanece en secreto, "incorporan otros mecanismos en segundo plano" para responder a preguntas matemáticas.
En todo caso, por el momento, es impensable confiar una decisión importante a un LLM.
Según el profesor Mosulesi, habría que entrenarlos para que respondan "No estoy muy seguro" cuando sea necesario.
L.Peeters--CPN