Los soportes de la computación digital están basados en la construcción de máquinas universales que permiten resolver cualquier tipo de problema y que se realizan con una tecnología estable de transistores y cables y su uso es relativamente simple: una tecnología madura basada en algoritmos que corren en un dispositivo, señaló el doctor Gerardo Abel Laguna Sánchez, jefe del Departamento de Procesos Productivos de la Unidad Lerma de la Universidad Autónoma Metropolitana, ubicada en el Estado de México (Edomex).
El doctor en Ciencias de la Computación presentó su libro Memorias académicas 2020. La máquina de post actualizada: diseño, puesta en marcha y programación del prototipo de un pequeño CPU funcional que explica el desarrollo completo del diseño, puesta en marcha y programación del prototipo para una pequeña unidad central de procesamiento a partir de una variante mejorada de la máquina de Post.
El origen inspiracional de esta obra está enraizado en Lecciones populares de matemáticas. Máquina del post, del matemático ruso Vladimir Andreevich Uspenski, y del texto del físico y matemático estadounidense Jeremy Bernstein, La máquina analítica, en los que retoma los principios del algoritmo y la computación bosquejados en 1936 por Alan Turing.
La publicación tiene un enfoque pedagógico con una propuesta para introducir al tema a los interesados sobre un asunto que avanza en forma rápida en el contexto de la complejidad tecnológica.
Respecto del contexto histórico tecnológico que dio lugar a esta obra y las nuevas tecnologías que se aproximan en la materia, Laguna Sánchez sostuvo que los inicios de la computación empiezan en el siglo XVII, cuando el filósofo y matemático francés Blaise Pascal inventó la pascalina, primera calculadora mecánica que funcionaba a base de ruedas y engranajes.
En el siglo XX llega la computación analógica, luego la digital como sistema hegemónico, y en el siglo XXI se dan avances en la cuántica, neuromórfica e incluso se habla ya de la molecular, apuntó.
La tecnología actual “ha conformado nuestro modo de vida; sin embargo, ya se vislumbra el fin de su crecimiento debido a limitaciones de tipo físico, pues el transistor no puede hacerse más pequeño. Por otro lado, la memoria, el dispositivo donde se almacenan los datos, también presenta problemas, como el cuello de botella de Von Neumann, que es el canal de transmisión de datos compartido entre el CPU y la memoria que produce un rendimiento limitado.
La propuesta que se presenta ante esto en la computación es la memoria, es decir, que los cálculos y las operaciones matemáticas se realicen de manera directa en la memoria para evitar el tránsito de ésta al CPU.
Ahora hay tecnologías que están emergiendo, como la inspirada en el cerebro humano llamada cómputo neuromórfico que puede dar salida a las limitaciones de la computación digital y es más afín a la analógica. Cuenta con un componente analógico desarrollado en el soporte de las redes neuronales para tratar de emular algunos procesos cognitivos similares a los del cerebro.
La computación cuántica ya está más avanzada, pero aún está en una etapa de consolidación. Lo que ahora se está desarrollando es la no convencional, es decir, no es digital, cuántica ni neuromórfica, sino con ADN y ya se están dando los primeros pasos. El reto es aprovechar cualquier fenómeno físico o cualquier física de los materiales para hacerla.
Las nuevas computaciones ya no sólo van a concebirse a partir de algoritmos y álgebra, sino que tendrán cruce con otras disciplinas transversales como las neurociencias y la física. Todas ellas se están emulando a partir de la digital, por lo que se prevé que ésta siga vigente por mucho tiempo más, porque es útil y versátil.
Comentarios Cerrados