Estilo de Vida

Expertos en tecnología advierten sobre peligro de la IA

Académicos en el campo y líderes tecnológicos, como Elon Musk y el cofundador de Apple, Steve Wozniak, firmaron una carta abierta sobre este tema

Imágen que representa la Intligencia Artificial

Según más de 1.000 expertos de tecnología la humanidad se encuentra en un importante peligro por los “experimentos de inteligencia artificial” y hay que detenerlos para evitar el riesgo.

Aunque los nuevos avances que se han logrado con la IA (inteligencia artificial) han logrado maravillar a la gente, los expertos han instado a los investigadores a dejar de trabajar en el desarrollo de nuevos sistemas de IA durante los próximos seis meses. Además, expresaron que si estos no lo hacen, entonces los gobiernos deben intervenir.

Tal es la grave conclusión de una nueva carta abierta firmada por expertos, incluidos académicos en el campo y líderes tecnológicos, como Elon Musk y el cofundador de Apple, Steve Wozniak.

Recomendados

En esta carta, se señala que las posibilidades positivas de la IA son significativas. Afirma que la humanidad “puede gozar de un futuro floreciente” con la tecnología, y que ahora podemos disfrutar de un “verano de IA” en el que nos adaptemos a lo ya creado.

Sin embargo, si los científicos siguen entrenando nuevos modelos, entonces el mundo podría enfrentarse a una situación mucho más difícil. “En los últimos meses, los laboratorios de IA han entrado en una competencia descontrolada para desarrollar e implementar mentes digitales cada vez más poderosas que nadie, ni siquiera sus creadores, pueden entender, predecir o controlar de manera confiable”, escriben los autores de la carta.

El sistema de IA más avanzado disponible al público en este momento es GPT-4, desarrollado por OpenAI, que se lanzó a principios de este mes. La carta pide que los laboratorios de IA detengan el desarrollo de cualquier sistema más potente que ese, al menos durante los próximos seis meses.

“La pausa debe ser pública y verificable, e incluir a todos los responsables clave. Si no se puede promulgar tal pausa rápidamente, los gobiernos deben intervenir e instituir una suspensión”, escriben los autores.

Durante esos seis meses, tanto los laboratorios de IA como los expertos deberían crear nuevos principios para el diseño de sistemas de IA, sin que esto suponga una pausa del trabajo de IA en general. En cambio, la investigación “debería reenfocarse en hacer que los sistemas poderosos y de última generación de hoy en día sean más precisos, seguros, interpretables, transparentes, sólidos, alineados, confiables y leales”.

Tags

Lo Último


Te recomendamos