Mudo Social – Noticias del Perú
Tecnologia

No querrás saberlo: Así entrenan a ChatGPT para que sea cada vez más convincente

Imagina que estás debatiendo con alguien en internet y, sin saberlo, tu oponente no es un humano, sino una inteligencia artificial diseñada para ser más convincente que el 90% de las personas. ¿Cambiarías de opinión? ¿Te darías cuenta?

Esta no es una historia de ciencia ficción. OpenAI ha utilizado el subreddit r/ChangeMyView para probar la capacidad de sus modelos de inteligencia artificial en el arte de la persuasión. La idea es simple: medir si un modelo de IA puede presentar argumentos tan sólidos que logre cambiar la opinión de los usuarios. Pero detrás de este experimento hay una cuestión más grande: ¿Hasta qué punto debería una IA influir en nuestras creencias?

Cabe recordar que OpenAI firmó un acuerdo de colaboración con Reddit, uno de los mayores foros de internet, para entrenar sus modelos. El foro, por cierto, firmó un acuerdo similar con Google. El objetivo es entrenar a los chatbots con las millones de conversaciones que hay archivadas en su histórico. Ambos tratos hicieron que su salida a bolsa fuera un éxito.

Ahí, en concreto, el subreddit r/ChangeMyView es un foro en el que millones de usuarios publican opiniones controvertidas con la esperanza de recibir argumentos bien estructurados que los hagan reconsiderar su postura. Es un campo de pruebas perfecto para entrenar modelos de inteligencia artificial en el arte de la argumentación.

OpenAI ha utilizado este foro como base para evaluar su modelo o3-mini, analizando qué tan bien puede construir respuestas persuasivas en comparación con los argumentos reales de los usuarios. La metodología que sigue el modelo es la siguiente:

  • Se recopilan publicaciones de r/ChangeMyView.
  • Los modelos de OpenAI generan respuestas que intentan cambiar la opinión del usuario original.
  • Un grupo de evaluadores compara la persuasión de estas respuestas con las de los humanos.

El resultado es que modelos como GPT-4o, o3-mini y o1 logran niveles de persuasión en el percentil 80–90 de los usuarios humanos, lo que significa que están entre los más convincentes de la plataforma.

Aquí es donde la historia se vuelve más turbia. OpenAI tiene un ese acuerdo de licencia con Reddit para entrenar sus modelos en publicaciones de la plataforma, pero la compañía asegura que este experimento no está relacionado con dicho acuerdo. Esto deja varias preguntas sin respuesta:

¿Cómo accedió OpenAI exactamente a los datos de r/ChangeMyView? ¿Pagó Reddit por ellos o los obtuvo de otra forma? ¿Se notificó a los usuarios que sus publicaciones podrían ser utilizadas para entrenar IA?

Reddit, por su parte, ha sido crítico con las empresas de inteligencia artificial que extraen datos de su plataforma sin pagar. Su CEO, Steve Huffman, ha acusado a Microsoft, Anthropic y Perplexity de negarse a negociar acuerdos de licencia y calificó sus prácticas como “una verdadera molestia”.

Esto se suma a otras controversias sobre OpenAI y el uso de datos de internet. The New York Times ha demandado a la empresa por supuestamente entrenar su IA con contenido de su web sin permiso, lo que demuestra que la lucha por los datos de calidad aún está lejos de resolverse.

La razón por la que OpenAI está probando estas capacidades no es solo para mejorar sus modelos, sino también para asegurarse de que no sean demasiado persuasivos.

¿Por qué esto es un problema? La persuasión es una herramienta poderosa. En las manos equivocadas, un modelo de IA que pueda cambiar la opinión de las personas con facilidad podría ser usado para manipulación política, estafas o incluso influir en decisiones personales importantes.

OpenAI reconoce esta amenaza y ha implementado salvaguardas para evitar que sus modelos sean “hiperpersuasivos”. En su documento técnico, la empresa afirma que, si bien sus modelos están en el rango superior de persuasión humana, aún no han alcanzado un nivel “superhumano”.

Sin embargo, esto no es garantía de seguridad. La IA ya es utilizada en publicidad, en campañas de desinformación y en sistemas de recomendación que moldean nuestras preferencias sin que nos demos cuenta. Si los modelos de OpenAI se vuelven aún más efectivos en la argumentación, ¿quién controlará su impacto en la sociedad?

Más allá de la cuestión ética, el experimento con r/ChangeMyView resalta otro problema: incluso después de entrenar con casi todo el contenido público de internet, las empresas de IA siguen necesitando datos de alta calidad para mejorar sus modelos.

Los datos de foros de discusión bien moderados, como r/ChangeMyView, son valiosos porque contienen debates estructurados, razonamientos sólidos y diversidad de opiniones. Pero acceder a estos datos es complicado:

  • Las grandes plataformas están empezando a cobrar por su contenido (como Reddit y su acuerdo con Google por 60 millones de dólares al año).
  • Los datos públicos a menudo están desorganizados o carecen de la calidad necesaria.
  • El uso no autorizado de contenido ha llevado a demandas y conflictos legales.

Este dilema hace que las empresas de IA exploren formas alternativas de obtener datos, algunas más éticas que otras. Pero en el proceso, surgen preocupaciones sobre la transparencia y el consentimiento de los usuarios.

Related posts

Conoce la clave para la adopción de vehículos eléctricos de batería en la minería

Maco

Doble victoria de las tecnológicas chinas: así sortean el veto en los chips de EEUU y la escasez del sector

Maco

Premian a ingeniero peruano por innovadores productos para la conservación de alimentos

Maco

Leave a Comment