Tamaño del mercado de equipos de bloqueo y etiquetado, participación, análisis de demanda global, segmentación de la industria e informe de pronóstico para 2028: Master Lock, Brady, ABUS
Mar 07, 2023Disparo espía: un siguiente
Mar 09, 2023Opinión: El fallo de la Corte Suprema erosiona el derecho de huelga al facultar a los empleadores para demandar a los sindicatos
Mar 11, 2023Notas del parche Valorant 6.11: actualizaciones de agentes, cambios en el mapa de Pearl, armas y más
Mar 13, 2023Edadismo digital
Mar 15, 2023Los directores ejecutivos de OpenAI y Google DeepMind firman una declaración que advierte que la IA presenta un "riesgo de extinción"
Más de 350 expertos de la industria de la IA, incluidos OpenAI y Google, advierten que la IA es tan peligrosa como las grandes pandemias y la guerra nuclear.
-
Un grupo de expertos en inteligencia artificial (IA) advirtió que la IA podría representar una amenaza para la humanidad si no se desarrolla y utiliza de manera responsable. El grupo, que incluye investigadores de Google, Microsoft y OpenAI, publicó un artículo en la revista Nature el 30 de mayo de 2023, describiendo sus preocupaciones.
Sam Altman, director ejecutivo de OpenAI, Dario Amodei, director ejecutivo de Anthropic y Demis Hassabis, director ejecutivo de Google DeepMind son los signatarios más notables.
"Mitigar el riesgo de extinción de la IA debería ser una prioridad mundial junto con otros riesgos a escala social, como las pandemias y la guerra nuclear", se lee en la carta abierta. The New York Times informa que la declaración será publicada por el Center for AI Safety, una nueva organización sin fines de lucro. Más de 350 investigadores, ingenieros y ejecutivos de empresas de IA han firmado conjuntamente la carta.
Geoffrey Hinton y Yoshua Bengio son dos investigadores destacados que han firmado. Estos son dos de los tres investigadores que ganaron un Premio Turing por desarrollar redes neuronales. Ambos innovadores en IA, Hinton y Bengio, son conocidos como los "padrinos" de la innovación en IA. A principios de este mes, Hinton dejó su puesto en Google después de frustrarse con la falta de visión y liderazgo de Google en el desarrollo de IA. También advirtió sobre los peligros potenciales de la IA.
Los expertos argumentan que la IA podría usarse para crear armas autónomas que podrían matar sin intervención humana. También les preocupa que la IA pueda usarse para manipular a las personas o difundir información errónea. El grupo pide un esfuerzo global para desarrollar la IA de manera segura y responsable.
La advertencia de los expertos en IA llega en un momento en que la IA se está volviendo rápidamente más poderosa. En los últimos años, la IA se ha utilizado para desarrollar automóviles autónomos, software de reconocimiento facial e incluso chatbots impulsados por IA. A medida que la IA continúa desarrollándose, es importante considerar los riesgos potenciales y los beneficios potenciales.
Los expertos en IA que publicaron el artículo en Nature no son los primeros en advertir sobre los peligros potenciales de la IA. En 2015, Elon Musk y Stephen Hawking escribieron una carta abierta en la que pedían la prohibición de las armas autónomas. Y en 2017, el Future of Life Institute, una organización sin fines de lucro que promueve la investigación sobre los riesgos existenciales, publicó un informe sobre los peligros de la IA.
Las advertencias de los expertos en IA y otros expertos son una llamada de atención. Está claro que la IA es una tecnología poderosa con el potencial de causar un gran daño. Es fundamental que desarrollemos la IA de manera responsable y que tomemos medidas para mitigar los riesgos.
Hay muchas preocupaciones sobre la IA y los legisladores, e incluso aquellos involucrados en la industria de la IA las están expresando. Quizás la mayor paradoja en tecnología en este momento es que el desarrollo continúa en IA generativa avanzada a pesar de que muchas figuras importantes hablan sobre los peligros. Supongo que la pregunta obvia es, si los ejecutivos como Sam Altman están preocupados, ¿por qué siguen desarrollando sistemas de IA? ¿Es puramente lucrativo, o es arrogancia y la creencia de que podemos controlar esta tecnología?
Sam Altman es cofundador de OpenAI (junto con Elon Musk) y actual director ejecutivo de la firma de investigación de IA. Se ha convertido en uno de los líderes tecnológicos más poderosos en los últimos meses, ya que ChatGPT se convirtió en el chatbot de IA más convencional. Altman también ha fomentado una profunda asociación con Microsoft luego de miles de millones de dólares en inversiones de la compañía de Redmond.
Mientras que OpenAI y Microsoft han hecho crecer sus productos de IA, como GPT-4, ChatGPT, Bing Chat, Microsoft 365 Copilot y GitHub Copilot. Sin embargo, los críticos de Altman afirman que OpenAI ha desarrollado demasiado rápido sus productos de IA generativa sin esperar las regulaciones adecuadas. Elon Musk, ex socio de Altman en OpenAI, es uno de esos críticos y dice que la forma en que la empresa es ahora no es lo que él pretendía.
Musk también se unió a otros líderes en tecnología para crear el proyecto Initiative for Life, que pide a los desarrolladores de IA que dejen de desarrollar modelos más potentes que GPT-4 durante al menos seis meses. Vale la pena señalar que Altman ha afirmado recientemente que GPT-5 no está siendo desarrollado por OpenAI. Esta semana, Altman habló en una audiencia en el Congreso de los Estados Unidos y admitió que es necesario que existan regulaciones claras y estrictas para el desarrollo de la IA.
La IA podría amenazar nuestra existencia a pesar de las preocupaciones, está a todo vapor para el desarrollo de la IA