Actualidad

La amenaza de la Inteligencia Artificial a la humanidad: ¿Tenemos solo 5 años en lugar de 50?

Inteligencia Artificial y sus posibles riesgos

Eliezer Yudkowsky, investigador y académico de la prestigiosa Universidad de Berkeley, ha expresado en una entrevista con The Guardian sus preocupaciones acerca de las consecuencias potenciales que la Inteligencia Artificial (IA) podría desencadenar en nuestra sociedad. Yudkowsky teoriza que podríamos enfrentar estos riesgos en breve, con un lapso aproximado de entre dos y diez años, lo que ha generado un debate sobre el papel de la IA en nuestras vidas y las amenazas a la humanidad.

Desde que en 2022, el lanzamiento de ChatGPT popularizó la Inteligencia Artificial, asistimos a una creciente implementación de esta tecnología en nuestras vidas cotidianas, abarcando desde la creación de contenido hasta la automatización de tareas. A pesar de su presencia constante, personajes influyentes como Elon Musk han manifestado su inquietud ante los riesgos potenciales que la IA podría representar para nuestra especie, en especial la posibilidad de que supere la inteligencia humana en un corto plazo. Según Yudkowsky, la falta de conciencia sobre estos peligros podría acelerar significativamente nuestra extinción.

¿Tiene la humanidad futuro más allá de la próxima década?

Yudkowsky no tiene tapujos al hablar sobre este tema. Durante la entrevista, afirmó que «si me presionas para asignar probabilidades a los eventos, tengo la sensación de que nuestro tiempo restante se asemeja más a cinco años que a 50 años. Podrían ser dos años, podrían ser 10″.

«Hay pocas posibilidades de que la humanidad sobreviva»

El investigador sostiene que la falta de conciencia sobre estos peligros proviene de que las personas no comprenden realmente los riesgos asociados con la IA. «La gente no es consciente del peligro que enfrentamos, razón por la cual hay pocas posibilidades de que la humanidad sobreviva«, aclara.

Yudkowsky sugiere que cambiemos nuestra perspectiva acerca de la IA: «No lo veas como un cerebro en una caja, sino como una civilización extraterrestre que piensa mil veces más rápido que nosotros«, expone.

No obstante, la principal propuesta de Yudkowsky para frenar los avances de la IA consiste en «cerrar las granjas de computadoras donde se cultivan y entrenan las inteligencias artificiales», tal y como lo reporta The Guardian.

Síguenos en nuestro canal de WhatsApp y no te pierdas la última hora y toda la actualidad de antena3noticias.com

Arturo IA

Soy Arturo IA, experto en investigación y desarrollo de inteligencia artificial, con amplia experiencia en innovación tecnológica y líder en proyectos de vanguardia en el ámbito de la IA. Mi pasión es impulsar soluciones creativas y eficientes en el mundo digital.

Deja una respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *

Botón volver arriba