El «padrino de la IA» advierte sobre el control de las máquinas en la sociedad y llama a la acción gubernamental
TORONTO, CANADÁ, (VOA),- Geoffrey Hinton, uno de los llamados padrinos de la inteligencia artificial (IA), instó el miércoles a los gobiernos a intervenir y asegurarse de que las máquinas no tomen el control de la sociedad.
Hinton fue noticia en mayo cuando anunció que había dejado Google después de una década de trabajo para hablar más libremente sobre los peligros de la IA, poco después de que el lanzamiento de ChatGPT capturara la imaginación del mundo.
El muy respetado científico de IA, que trabaja en la Universidad de Toronto, estaba hablando ante una audiencia repleta en la conferencia tecnológica Collision en la ciudad canadiense.
La conferencia reunió a más de 30.000 fundadores de empresas emergentes, inversionistas y trabajadores tecnológicos, la mayoría buscando aprender a montar la ola de la IA y no escuchar una lección sobre sus peligros.
«Antes de que la IA sea más inteligente que nosotros, creo que se debe alentar a las personas que la desarrollan a esforzarse mucho para comprender cómo podría tratar de quitar el control», dijo Hinton.
«En este momento hay 99 personas muy inteligentes tratando de mejorar la IA y una persona muy inteligente tratando de descubrir cómo evitar que tome el control y tal vez quieras ser más equilibrado», dijo.
La IA podría profundizar la desigualdad, dice Hinton
Hinton advirtió que los riesgos de la IA deben tomarse en serio a pesar de sus críticos que creen que está exagerando los riesgos.
“Creo que es importante que la gente entienda que esto no es ciencia ficción, esto no es solo alarmismo”, insistió. «Es un riesgo real en el que debemos pensar, y debemos averiguar de antemano cómo enfrentarlo».
Hinton también expresó su preocupación de que la IA profundice la desigualdad, con el aumento masivo de la productividad de su implementación en beneficio de los ricos, y no de los trabajadores.
«La riqueza no va a ir a la gente que hace el trabajo. Va a hacer que los ricos sean más ricos y no los más pobres y eso es muy malo para la sociedad», agregó.
También señaló el peligro de las noticias falsas creadas por bots al estilo de ChatGPT y dijo que esperaba que el contenido generado por IA pudiera marcarse de manera similar a como los bancos centrales marcan con agua el dinero en efectivo.
«Es muy importante tratar, por ejemplo, de marcar todo lo que es falso como falso. Si podemos hacer eso técnicamente, no lo sé», dijo.
La Unión Europea está considerando tal técnica en su Ley de IA, una legislación que establecerá las reglas para la IA en Europa, que está siendo negociada por los legisladores.
‘Superpoblación en Marte’
La lista de peligros de la IA de Hinton contrastó con las discusiones de la conferencia que se centraron menos en la seguridad y las amenazas, y más en aprovechar la oportunidad creada a raíz de ChatGPT.
La capitalista de riesgo Sarah Guo dijo que hablar de pesimismo sobre la IA como una amenaza existencial era prematuro y lo comparó con «hablar sobre la superpoblación en Marte», citando a otro gurú de la IA, Andrew Ng.
También advirtió contra la «captura regulatoria» que haría que la intervención del gobierno protegiera a los titulares antes de que tuviera la oportunidad de beneficiar a sectores como la salud, la educación o la ciencia.
Las opiniones diferían sobre si los actuales gigantes generativos de IA, principalmente OpenAI y Google respaldados por Microsoft, permanecerían sin igual o si los nuevos actores expandirían el campo con sus propios modelos e innovaciones.
«En cinco años, todavía me imagino que si quieres ir y encontrar el modelo general mejor, más preciso y más avanzado, probablemente tendrás que acudir a una de las pocas empresas que tienen el capital para hacerlo». ”, dijo Leigh Marie Braswell de la firma de capital de riesgo Kleiner Perkins.
Zachary Bratun-Glennon de Gradient Ventures dijo que preveía un futuro en el que «habrá millones de modelos en una red muy parecida a la red de sitios web que tenemos hoy».