Mudo Social – Noticias del Perú
Tecnologia

ChatGPT ahora puede ‘ver’: Su nuevo modo interpreta lo que le mostramos por la cámara

¿Cómo será la relación entre humanos y máquinas en el futuro inmediato? OpenAI ha dado un paso hacia esa respuesta acercándose mucho a lo que hemos visto en películas de ciencia-ficción. La compañía ha integrado capacidades de video en tiempo real con su ya impresionante Modo de Voz Avanzado, ese que recordaba a la película Her. Los vídeos que ha mostrado (y que había dejado ver, pero aún no había desplegado) son desde luego impresionantes.

OpenAI presentó la nueva funcionalidad de visión para ChatGPT, su herramienta de conversación estrella. La actualización permite a los usuarios suscritos a planes premium usar la cámara de sus dispositivos para obtener respuestas en tiempo real al señalar objetos o compartir la pantalla. Con esta tecnología, OpenAI se posiciona en la vanguardia de un sector donde también compiten gigantes como Google y Meta.

Hasta ahora, las interfaces de voz y texto de ChatGPT habían demostrado una capacidad notable para comprender y generar lenguaje. Sin embargo, la integración de video en tiempo real añade un nuevo nivel de interacción. Los usuarios podrán apuntar la cámara de sus dispositivos hacia un objeto, como una planta para identificar su especie, un aparato electrónico para recibir instrucciones de uso, o un alimento para conocer su valor nutricional, y ChatGPT ofrecerá información, explicaciones o sugerencias relacionadas con lo que esté viendo.

La funcionalidad también incluye la posibilidad de compartir pantalla. Por ejemplo, puede guiar al usuario a través de configuraciones complicadas en su dispositivo o resolver problemas matemáticos complejos mediante una explicación visual. Durante una demostración reciente, ChatGPT analizó dibujos en tiempo real, interactuando con una precisión que, si bien impresionante, aún es propensa a errores ocasionales. Esto pone de manifiesto tanto el potencial como las limitaciones actuales de esta tecnología.

OpenAI ha enfrentado varios retos en el desarrollo de esta capacidad. Anunciado inicialmente en abril, el despliegue de esta funcionalidad sufrió retrasos debido a la complejidad técnica y a las expectativas generadas por los anuncios tempranos. Además, el acceso a esta tecnología estará restringido en varias regiones, incluidos los países de la Unión Europea, donde las normativas sobre privacidad plantean un obstáculo adicional.

Por otro lado, la competencia no se detiene. Google, por ejemplo, ha lanzado Project Astra, una herramienta similar enfocada en la análisis de video en tiempo real, disponible para un grupo reducido de usuarios de prueba. Este contexto subraya la importancia de moverse rápido y con precisión en un campo tan competitivo.

La nueva funcionalidad no solo representa un avance tecnológico, sino también una apuesta por redefinir cómo interactuamos con las máquinas. Las posibilidades son casi infinitas: desde educación y asistencia sanitaria hasta soporte técnico y creación artística.

Sin embargo, también surgen preguntas importantes. ¿Cuáles serán las implicaciones éticas y sociales de tener una IA que puede ver y analizar en tiempo real? ¿Cómo garantizará OpenAI la privacidad y seguridad de los usuarios?

Con el lanzamiento oficial previsto para la próxima semana, y un despliegue escalonado que se extenderá hasta enero para ciertos grupos, este hito promete consolidar la reputación de OpenAI como líder en la carrera por una IA más humana.

Related posts

Foro internacional analizará tecnologías abiertas y desarrollo de zonas rurales

Maco

La tecnología que puede salvar las centrales de gas eliminando las emisiones de CO2

Maco

¡Atención! Advierten de nueva modalidad de estafa y extorsión a usuarios de Telegram

Leave a Comment