Singularidad Tecnológica: Cuando la inteligencia artificial supere a la inteligencia humana
Introducción
El avance tecnológico sostenido en las recientes décadas, marcado por un ritmo acelerado, nos permite anticipar un futuro cercano donde los sistemas tecnológicos y la inteligencia artificial (IA) podrían sobrepasar, tanto física como intelectualmente, a la inteligencia humana (IH), alcanzando un estado de auto-mejora ininterrumpida, prescindiendo de la intervención humana, gracias a sus avanzadas capacidades de procesamiento de información en contraste con el cerebro humano.
Al borde de una nueva era, enfrentamos una interrogante que pone a prueba nuestras habilidades técnicas y nuestro entendimiento filosófico: ¿Qué ocurrirá cuando las máquinas tengan la habilidad de automejorarse y la inteligencia artificial supere la perspicacia intelectual de los humanos? Este panorama no solo augura un futuro de avances tecnológicos sin comparación, sino también una revisión profunda de nuestro lugar en la jerarquía cognitiva.
El escenario de máquinas que pueden evolucionar y perfeccionar su desempeño sin necesidad de intervención humana, alcanzando niveles de inteligencia que superan nuestro comprensión, plantea una situación a la vez fascinante e inquietante. ¿Serán estas superinteligencias artificiales la clave para resolver los retos más intrincados de la humanidad o, en cambio, desatarán una cadena de dilemas éticos y existenciales que nos hagan reevaluar la esencia de la autonomía y la autoridad?
¿Qué es singularidad tecnológica?
Según R. Kurzweil, la singularidad tecnológica es “un periodo futuro durante el cual el ritmo del cambio tecnológico será tan rápido y su impacto tan profundo, que la vida humana será transformada irreversiblemente” (Kurzweil, 2005). El modelo de "explosión de inteligencia" propuesto por I. J. Good es la interpretación más aceptada de esta hipótesis. Predice que un agente inteligente capaz de mejorarse a sí mismo eventualmente desencadenará ciclos de auto-mejora. Cada nueva generación, siendo más inteligente que la anterior, avanzará a una velocidad cada vez mayor, llevando a una "explosión" en la inteligencia y culminando en la emergencia de una superinteligencia que superará cualitativamente a toda la inteligencia humana[1].
La imagen a continuación representa un gráfico que ilustra este concepto. En él, hay tres líneas: una amarilla que muestra el crecimiento gradual del intelecto humano, una celeste que señala el ascenso de la inteligencia de la máquina alrededor del año 2000, y una línea verde que sugiere una convergencia futura entre la inteligencia humana y la de la máquina, posiblemente dando origen a los "Trans-Humanos". El término "LA SINGULARIDAD" se destaca en el punto donde ambas inteligencias se cruzan.
Este gráfico simboliza la anticipación de que, en un futuro cercano, la evolución tecnológica alcanzará un punto de no retorno, marcado por la singularidad tecnológica. Esta fase será caracterizada por agentes inteligentes que, en su afán de auto-mejora, generarán una reacción en cadena que les permitirá evolucionar a un ritmo sin precedentes, superando las capacidades intelectuales humanas.
Ley de Moore
La Ley de Moore, según Investopedia, establece que el número de transistores en un microchip se duplica aproximadamente cada dos años. Esta ley predice que podemos esperar que la velocidad y capacidad de nuestros ordenadores aumenten cada dos años y, al mismo tiempo, el coste de estos dispositivos disminuirá. Además, un aspecto esencial de la Ley de Moore es que este crecimiento es exponencial[2].
Dentro de este contexto, el gráfico que se adjunta ilustra claramente esta tendencia. Muestra la evolución del número de transistores en microprocesadores Intel a lo largo de los años en relación con la predicción de la Ley de Moore. Desde 1970 hasta alrededor del año 2000, los microprocesadores Intel siguieron de cerca la predicción de Moore. Sin embargo, alrededor del año 2000, hay desviaciones que podrían indicar avances tecnológicos rápidos o ajustes en el diseño y fabricación.
Al extrapolar esta tendencia, uno podría argumentar, basándose en la Ley de Moore, que el poder de los ordenadores eventualmente se volverá tan potente, tras duplicarse cada dos años, que alcanzaríamos la singularidad tecnológica. Esto significaría la emergencia de una inteligencia superior a la humana, marcando un punto crucial en la historia de la tecnología y la humanidad.
Correspondientemente, líderes tecnológicos como Elon Musk sienten que esta singularidad tecnológica es ahora algo inevitable. Por lo tanto, para prevenir que las máquinas sean mucho más inteligentes que los humanos, él cree que deberíamos "lograr una 'simbiosis' entre el cerebro humano y la inteligencia artificial"[3].
Como resultado, fundó Neuralink. Neuralink está "desarrollando un dispositivo que se incrustaría en el cerebro de una persona, donde registraría la actividad cerebral y potencialmente la estimularía[4].
De hecho, este proyecto Neuralink ha estado desarrollándose con éxito durante los años con pruebas realizadas en cerdos y monos, por lo que las pruebas en humanos comenzarán este año[5].
También es importante señalar que Elon Musk una vez declaró que la inteligencia artificial es la mayor amenaza para la humanidad, incluso más que las armas nucleares[6].
Investigación sobre la Singularidad Tecnológica
Diversos informes de investigación sugieren que, con la singularidad tecnológica, llegará un momento en que la inteligencia artificial (IA) se tornará incontrolable por los seres humanos y transformará drásticamente nuestra civilización y sociedad[7]. La teoría subyacente de la singularidad sostiene que el avance tecnológico eventualmente será ilimitado[8]. Algunos académicos postulan que esta singularidad se materializará cuando la IA alcance un nivel en el que pueda respaldar y superar las necesidades y capacidades de supervivencia de la especie humana[9].
Sin embargo, hay quienes sostienen que la gestación de una conciencia o percepción colectiva será la verdadera causante de la singularidad tecnológica, las recientes innovaciones realizadas por la humanidad han acelerado nuestro proceso hacia una conciencia colectiva. Como evidencia, la difusión de información ahora puede realizarse de manera más rápida y extensa gracias a los avances en las comunicaciones. Desde ese momento, los avances en IA han potenciado aún más nuestra habilidad para recopilar y comunicar información compleja a velocidades crecientes[10].
La imagen a continuación ilustra de manera gráfica el impacto de diversas innovaciones en la capacidad de comunicación y difusión a lo largo de la historia. Se puede observar cómo la cantidad de personas alcanzadas por diferentes medios ha ido en aumento exponencial con el tiempo, desde las pinturas rupestres hace 40 mil años, pasando por la invención de la escritura hace 5.5 mil años, hasta tecnologías más recientes como el teléfono en 1876, el satélite de comunicaciones en 1962 y la aparición del internet en 1969. Estas tecnologías no solo marcan hitos en la comunicación, sino también en la formación y expansión de una conciencia colectiva global.
Por lo tanto, el satélite de comunicaciones, de hecho, representó una nueva etapa en el proceso continuo de la singularidad tecnológica y la formación de la conciencia colectiva de la humanidad.
La cuestión de si la singularidad será beneficiosa o perjudicial, o incluso una amenaza existencial, es un tema de debate[11]. Expertos como Ray Kurzweil, reconocido futurista y director de Ingeniería de Google, ven en ella una oportunidad para que la humanidad progrese, potenciando nuestra inteligencia y habilidades en todo lo que valoramos[12]. De hecho, Kurzweil manifiesta con optimismo que: “Aunque todavía no estén dentro de nuestros cuerpos, para la década de 2030 conectaremos nuestra neo-corteza, la parte de nuestro cerebro donde pensamos, a la nube. Tendremos más neo-corteza, seremos más divertidos, mejores en la música y más atractivos. Realmente vamos a potenciar todos los aspectos que valoramos en los humanos en mayor medida[13].” Por otro lado, otros líderes en ciencia y tecnología, como Elon Musk, Bill Gates y el fallecido Stephen Hawking, tienen una perspectiva más cautelosa[14] y por otro lado personas como Theodore Modis argumentan que la singularidad tecnológica es, de hecho, un concepto imposible de materializar[15].
Línea de tiempo de la Singularidad Tecnológica
Aunque la proliferación de la IA ha sido durante mucho tiempo un tema común en la ciencia ficción, la realidad se acerca cada vez más. Según Ray Kurzweil, la singularidad tecnológica ocurrirá antes de 2045. De hecho, Kurzweil ha declarado que, "El año 2029 es la fecha consistente que he predicho, cuando una inteligencia artificial pasará una prueba de Turing válida, alcanzando niveles de inteligencia humana. También he establecido la fecha 2045 para la singularidad, que es cuando los humanos multiplicarán nuestra inteligencia efectiva mil millones de veces, fusionándonos con la inteligencia que hemos creado. Para 2029, las computadoras tendrán inteligencia a nivel humano[16]."
De hecho, estudios recientes sugieren que podrían pasar solo 7 años para que la humanidad alcance la singularidad[17]. Por lo tanto, es un desafío prever cuándo ocurrirá la singularidad y cómo funcionaría el nuevo mundo resultante.
La imagen a continuación muestra la "Progresión hacia la Singularidad en la Inteligencia Artificial", medido a través del "Tiempo de edición" en las traducciones realizadas por máquinas. El gráfico se basa en datos recopilados desde 2015 hasta el proyectado 2027, sugiriendo una mejora constante en la calidad de las traducciones automáticas. Si la tendencia actual continúa, es probable que las máquinas alcancen o incluso superen las capacidades de traducción humana en un futuro cercano. Esta mejora constante en las habilidades de la IA refuerza la idea de que la singularidad tecnológica es un evento inminente.
Según Nick Bostrom, autor del libro más vendido del New York Times 'Superinteligencia: Caminos, Peligros, Estrategias', la humanidad debe estar lista para apagar una máquina tan pronto como exista una superinteligencia no amigable. Sin embargo, tan pronto como exista una superinteligencia no amigable, podría impedirnos reemplazarla o destruirla y "nuestro destino estaría sellado". Además, Nick Bostrom también afirma en su libro que "Este es posiblemente el desafío más importante y más desalentador que la humanidad ha enfrentado. Y, ya sea que tengamos éxito o fracasemos, probablemente sea el último desafío que enfrentaremos".
Según Marc Vidal, en su libro La era de la humanidad, “la singularidad tecnológica, se prevé se desarrollará en tres fases. En la primera fase, los ordenadores alcanzarán un nivel de computación que asemejará funciones propias del cerebro humano; en la segunda, la inteligencia artificial aplicada a ordenadores y hardware robótico empezará a tener la capacidad de mejorarse a sí misma; y, en la tercera fase, la más compleja, las computadoras podrán plenamente mejorarse a sí mismas”[18].
En vista de otras predicciones sobre cuándo se logrará la "inteligencia de máquina a nivel humano" (HLMI) o si alguna vez se logrará, Bostrom informa que la investigación relevante ha concluido que hay una "probabilidad del 10% de HLMI para 2022, probabilidad del 50% para 2040 y probabilidad del 90% para 2075".
Conclusión
Al explorar el vasto y complejo panorama de la Singularidad Tecnológica, nos encontramos en el filo de una nueva frontera, donde las promesas de la IA avanzada se entrelazan con el destino de la humanidad. La perspectiva de una inteligencia artificial que se autoperfecciona y eventualmente eclipsa la cognición humana, no solo redefine los límites de la innovación y el progreso, sino que también desafía nuestras concepciones fundamentales sobre la autonomía, la autoridad y la identidad.
Las proyecciones de líderes y académicos en el ámbito, como Ray Kurzweil y Nick Bostrom, delinean un futuro donde la intersección entre la inteligencia humana y artificial podría desencadenar tanto una era dorada de descubrimientos como posibles dilemas éticos y existenciales sin precedentes. Mientras algunos visionarios, como Elon Musk, proponen la simbiosis entre la inteligencia humana y artificial como una vía para navegar por este territorio inexplorado, otros advierten sobre los riesgos inherentes a una superinteligencia desenfrenada.
La Singularidad Tecnológica, por lo tanto, se presenta como una encrucijada que podría redefinir la trayectoria de nuestra civilización. Las iniciativas como Neuralink y las discusiones en torno a la ética de la IA, la seguridad y la preparación para una superinteligencia potencialmente no amigable, son testimonio de los esfuerzos conscientes para moldear un futuro donde la humanidad y la inteligencia artificial puedan coexistir y prosperar. Sin embargo, la incertidumbre y la preparación meticulosa, la reflexión ética y la innovación continua serán cruciales para garantizar que el advenimiento de la Singularidad Tecnológica se traduzca en un capítulo prometedor, y no pernicioso, en la odisea de la humanidad. Esta inminente realidad impulsa la urgencia de un diálogo global y multidisciplinario, donde las implicancias de la Singularidad se exploran, comprenden y gestionan de manera coherente y visionaria, abrazando las oportunidades mientras se mitigan los riesgos inherentes. Por lo tanto, el reloj avanza, y la urgencia de una comprensión profunda y una acción informada nunca ha sido más imperativa.
Bibliografía
[1] https://mindstalk.net/vinge/vinge-sing.html
[2] https://www.investopedia.com/terms/m/mooreslaw.asp
[3] https://www.businessinsider.com/neuralink-elon-musk-microchips-brains-ai-2021-2#musk-founded-neuralink-under-the-radar-in-2016-1
[4] https://www.businessinsider.com/neuralink-elon-musk-microchips-brains-ai-2021-2
[5] https://www.forbes.com/sites/milletienne/2023/09/26/human-trials-for-elon-musks-neuralink-offer-new-hope-neurologist-says/
[6] https://www.cnbc.com/2018/03/13/elon-musk-at-sxsw-a-i-is-more-dangerous-than-nuclear-weapons.html
[7] https://www.popularmechanics.com/technology/robots/a42612745/singularity-when-will-it-happen/
[8] https://www.mdpi.com/2078-2489/9/4/82
[9] https://usa.kaspersky.com/blog/secure-futures-magazine/technological-singularity/21793/
[10] https://journals.sagepub.com/doi/10.1177/0270467620981000
[11] https://nickbostrom.com/existential/risks
[12] https://usa.kaspersky.com/blog/secure-futures-magazine/technological-singularity/21793/
[13] https://www.thekurzweillibrary.com/futurism-ray-kurzweil-claims-singularity-will-happen-by-2045
[14] https://usa.kaspersky.com/blog/secure-futures-magazine/technological-singularity/21793/
[15] http://www.growth-dynamics.com/articles/Singularity.pdf
[16] https://www.thekurzweillibrary.com/futurism-ray-kurzweil-claims-singularity-will-happen-by-2045
[17] https://www.popularmechanics.com/technology/robots/a42612745/singularity-when-will-it-happen/
[18] https://ethic.es/2020/07/la-era-de-la-humanidad-marc-vidal/
Acerca del autor
Oscar Rojas es un destacado especialista en administración de empresas de tecnología, con una sólida trayectoria en el ámbito de tecnologías emergentes para la gestión de centros de datos y automatización de infraestructuras críticas. Actualmente se desempeña como Director de Estrategia de Inteligencia Artificial y Desarrollo de Negocios en Bjumper.
Su experiencia abarca desde la dirección general hasta la expansión de mercados internacionales, respaldada una pasión constante por la innovación y la implementación de la industria 4.0 dentro del modelo de negocio.
Descargo
El autor utilizó LLM (Large Language Models) como herramienta de edición durante la creación de este artículo para:
Revisar y corregir errores gramaticales y ortográficos,
Garantizar coherencia y consistencia lingüística,
Probar y ajustar la redacción de los estudios de caso,
Estandarizar el formato de la bibliografía anotada en caso de requerirse.
Además, para asegurarse de que el LLM no corrigiera errores gramaticales o inconsistencias lingüísticas introduciendo contenido plagiado, el manuscrito se sometió a tres verificadores de plagio diferentes. Los resultados mostraron un índice de similitud por debajo del 10%.
Las opiniones expresadas aquí son únicamente del autor y están escritas en su capacidad personal. No reflejan las opiniones de su empleador actual ni de ninguna otra organización