Alguna vez te has preguntado, ¿por qué alertan del riesgo de la Inteligencia Artificial los precursores de la misma? Suena a una contradicción.

Tan contradictorio como fuera del negocio, pero ellos ayudaron a implementarla en los gigantes desarrolladores a nivel mundial, ahora buscan alertar.

Y es que a través de una carta firmada, líderes de la industria tecnológica afirman que el riesgo de la IA en la humanidad puede asemejarse al de una “pandemia” o “guerras nucleares”.

Top 10 Mejores cursos de Inteligencia Artificial gratuitos
Créditos: Forbes

Esto lo dicen porque la IA puede afectar a la sociedad de diferentes maneras y que los principales desarrolladores de sus herramientas no han optado por controlarla ni limitarla.

“Mitigar el riesgo de extinción de la inteligencia artificial debería ser una prioridad mundial junto a otros riesgos a escala social, como las pandemias y las guerras nucleares”, dice una carta con líderes mundiales publicada por el Centro para la Seguridad de la IA.

Se trata de más de 300 ejecutivos de las principales empresas de inteligencia artificial como Sam Altman, de OpenAI; Demis Hassabis, de Google DeepMind, y Dario Amodei, de Anthropic.

De nuevo salta el riesgo de la Inteligencia Artificial

La IA se ha convertido en un centro de crítica y sospecha desde sus propios creadores, pues apenas hace unos meses también líderes en tecnologías pidieron su regulación a través de una carta.

El único asunto preocupante de todo es que son los mismos creadores de la IA quienes piden su regulación. ¿Coincidencia? No lo creo.

También tenemos para ti 10 preguntas para una entrevista como data analyst.

¡Escríbenos a nuestro whatsapp! Conócenos y únete al desafío, que tenemos planes para ti y tu crecimiento.