top of page

Por qué los impulsores de la inteligencia artificial firman tantos manifiestos apocalípticos

Los creadores de esta tecnología, sus principales inversores y miles de académicos han alertado de peligros extraordinarios en las últimas semanas


Pérez, J. (1 de junio de 2023) Por qué los impulsores de la inteligencia artificial firman tantos manifiestos apocalípticos. EL PAIS. https://elpais.com/tecnologia/2023-06-02/por-que-los-impulsores-de-la-inteligencia-artificial-firman-tantos-manifiestos-apocalipticos.html



Robot humanoide con un letrero de AI a su lado


En los últimos meses, la inteligencia artificial (IA) ha sido objeto de creciente preocupación y debate por parte de expertos y líderes en el campo. Desde el llamado de Elon Musk y Steve Wozniak para detener la investigación en IA hasta las advertencias de Sam Altman, cofundador de OpenAI, sobre los posibles peligros épicos, el tema ha ganado prominencia en el ámbito tecnológico. Recientemente, Altman y otros líderes de la industria han publicado un manifiesto que destaca la necesidad de mitigar los riesgos de extinción asociados con la IA. En este artículo, examinaremos las razones detrás de esta creciente preocupación y la necesidad de regular adecuadamente esta tecnología emergente.


El debate se centra en la necesidad de regular la IA y comprender los posibles riesgos existenciales asociados a su desarrollo. Algunos argumentan que es difícil regular algo que aún no entendemos completamente, ya que la IA aún está en una etapa temprana de desarrollo. Por otro lado, los líderes de la industria han expresado su preocupación por los posibles peligros que podría plantear una superinteligencia artificial.


Altman y otros líderes de la industria han sugerido que los legisladores y expertos necesitan comprender mejor la IA y sus implicaciones antes de proponer regulaciones. Sin embargo, también ha habido críticas que sugieren que estas declaraciones y manifiestos podrían ser una estrategia para desviar la atención de posibles regulaciones que podrían afectar el crecimiento y la expansión de las empresas de IA en el presente.


¿Qué hay que regular?


La creciente preocupación en torno a la IA se basa en la incertidumbre sobre su desarrollo futuro y sus posibles riesgos. Algunos de los padres fundadores de la IA, como Geoffrey Hinton, han advertido sobre las posibles tinieblas asociadas con esta tecnología. Sin embargo, otros expertos, como Yann LeCun, argumentan que es difícil regular algo que aún no comprendemos por completo. La falta de conocimiento sobre el futuro de la IA plantea desafíos significativos a la hora de determinar qué aspectos deben regularse.


Por qué más manifiestos


El reciente manifiesto firmado por líderes de la industria de la IA destaca la importancia de abordar los riesgos de extinción asociados con esta tecnología. A diferencia de un manifiesto anterior que pedía una pausa en la investigación de la IA, este nuevo documento subraya la necesidad de legislar sobre los peligros futuros. Las compañías líderes en el campo de la IA no firmaron el manifiesto anterior, ya que no desean interrumpir la investigación en curso. Sin embargo, ahora reconocen la importancia de abordar los riesgos existenciales y buscan influir en los debates legislativos para garantizar una regulación adecuada.


¿Una cortina de humo?


Algunos críticos argumentan que estos manifiestos y las advertencias sobre los riesgos existenciales de la IA podrían ser una estrategia para desviar la atención de las empresas de IA de las posibles regulaciones que podrían afectar su crecimiento actual. Existen preocupaciones sobre la transparencia de las empresas de IA en cuanto al uso de datos, los sesgos algorítmicos y el cumplimiento de las normas de privacidad y derechos de autor. Al centrar el debate en los riesgos futuros, las empresas de IA podrían evitar la atención sobre estas cuestiones más urgentes.


El cuento del fin del mundo


El debate sobre los posibles riesgos existenciales de la IA ha generado gran interés en la comunidad tecnológica, especialmente en Silicon Valley. Algunos líderes de la industria, como Sam Altman, han hablado abiertamente sobre la posibilidad de una extinción humana causada por la IA. Sin embargo, los críticos argumentan que estos argumentos apocalípticos pueden ocultar otros motivos, como intereses económicos o agendas ideológicas.


El debate sobre la regulación de la inteligencia artificial y los posibles riesgos existenciales ha tomado protagonismo en los últimos meses. Mientras algunos líderes de la industria y expertos argumentan a favor de una pausa y una observación más cuidadosa, otros creen que es prematuro regular algo que aún no comprendemos completamente. La rapidez del desarrollo de la IA plantea desafíos y preocupaciones, pero también ofrece oportunidades y beneficios significativos.


Es fundamental que se lleve a cabo un debate informado y equilibrado que involucre a expertos de diversas disciplinas, así como a la sociedad en general. La regulación de la IA debe buscar un equilibrio entre fomentar la innovación y garantizar la seguridad y el bienestar de la humanidad.

16 visualizaciones0 comentarios

Comments


Noticias recientes

bottom of page