Resumen
Sam Altman, creador de ChatGPT, expresa su preocupación sobre la superinteligencia artificial. Advierte que su control por élites y la falta de democratización podrían ser mayores riesgos, sugiriendo que la superinteligencia podría estar a solo "unos pocos miles de días" de distancia.
Generado por Inteliegenica Artifical (OpenAI)El debate sobre los riesgos de la superinteligencia artificial ha adquirido una nueva dimensión, especialmente cuando quienes han estado al frente de su desarrollo, como Sam Altman, creador de ChatGPT, expresan su preocupación. La diferencia entre la inteligencia artificial (IA) y la superinteligencia radica en que la primera es una herramienta que facilita nuestras tareas mediante la velocidad de procesamiento, sin superar nuestras capacidades intelectuales. En contraste, la superinteligencia sería una entidad que sobrepasaría el intelecto humano, convirtiéndonos en prescindibles.
Altman, lejos de imaginar un escenario de ciencia ficción donde las máquinas se rebelen contra la humanidad, alerta sobre un peligro más inmediato: el control que ciertas élites pudieran ejercer sobre esta tecnología. Según su visión, los mayores riesgos serían la falta de democratización de la superinteligencia, su elevado costo de acceso, la insuficiente infraestructura para controlarla y las posibles guerras por su dominio.
Este escenario plantea preguntas inquietantes sobre el futuro. Si bien la IA ha sido un motor para el progreso en sectores como la salud y las ciencias, la creación de una superinteligencia plantea la posibilidad de que no solo reemplace trabajos, sino que considere al ser humano como una entidad superflua. Es un dilema sobre el que no podemos dejar de reflexionar, ya que, según algunos, podríamos estar al borde de una revolución tecnológica cuyos impactos podrían redefinir nuestra existencia.