La cibernética es una ciencia fascinante que se centra en el estudio de los Mecanismos automáticos de comunicación y control tanto en los seres vivos como en las máquinas.
Esta disciplina busca entender cómo se transmiten y procesan la información, permitiendo así la interacción eficiente entre diferentes sistemas.
Su aplicación abarca desde la biología hasta la ingeniería, revelando conexiones sorprendentes entre la vida y la tecnología.
f. Ciencia que estudia los mecanismos automáticos de comunicación y de control de los seres vivos y de las máquinas.
Segundo diccionario: cibernética
f. Med. Ciencia que estudia el funcionamiento de las conexiones nerviosas en los seres vivos.
Electr. Arte de construir y manejar aparatos y máquinas que mediante procedimientos electrónicos efectúan automáticamente cálculos complicados y otras operaciones similares.2º artículo
Ciencia que estudia los sistemas de control y comunicación de los animales (incluso los racionales) y las máquinas. En 1948, el matemático americano Norbert Wiener publicó en París, editada en inglés por Hermann et Cie, la obra Cybernetics, que inicia en el mundo el estudio sistemático de la ciencia que en lo sucesivo se conocerá con el nombre de Cibernética.
Ya Platón, hace más de 2000 años, habla del arte de pilotar las naves y dice que el piloto es el elemento fundamental de ese arte. Extrapolando la idea pone en boca de Sócrates: «La Cibernética salva de los mayores, peligros no sólo a las almas, sino también a los cuerpos y a los bienes» (Georgias 511). En el año 1834, en Francia, en su Ensayo sobre la filosofía de las Ciencias, Ampère recoge la palabra cibernética para designar la parte de la política que se ocupa de los medios de gobernar. Es seguramente esta expresión griega, recogida por Ampère, la que induce a Wiener a bautizar la ciencia que habrá de estudiar «el control y la comunicación en el animal y la máquina», subtítulo de la obra citada de dicho autor.
La originalidad de la Cibernética reside fundamentalmente en los dos aspectos siguientes: a) muestra que la estructura de un órgano que pertenece a un ser vivo se encuentra análogamente en una máquina y deduce de ello que toda la teoría de dicha máquina se aplica igualmente y con todas sus consecuencias al órgano vivo; es decir, se trata de una teoría aplicable lo mismo a la máquina que al animal; b) se interesa sola y exclusivamente en el carácter de síntesis del sistema que inicia el estudio sistemático de la ciencia que en lo sucesivo se conocerá con el nombre de Cibernética.
Esta ciencia no considera ninguno de los conceptos clásicos de energía, calor, rendimiento, sino que centra todo su interés en el comportamiento. Así, la Cibernética puede incluso planear mecanismos que todavía no existen, algo así como ha hecho ya la Física matemática al descubrir matemáticamente corpúsculos que luego ha habido que encontrar o bien al estudiar síntesis muy útiles para el conocimiento de las cuestiones reales. Siguiendo este razonamiento, puede decirse que la información es indispensable para saber el comportamiento de un mecanismo. Y de ahí que en cierto modo la Cibernética se identifique con la Teoría de la Información.
Esta teoría, tal como está planteada en la actualidad, es una rama de la matemática binaria, lógica o booleana. La información no se concibe sin sus dos elementos constitutivos: el soporte o forma y la semántica o significado; pero, habidos éstos, lo que en realidad se da es la «cantidad de información». Esto es pura lógica: cuanto más informado se está de algo, más se conoce sobre ello y mejor se puede actuar.
Supóngase, por ejemplo, que dos soldados están prisioneros en dos países diferentes y cada una de sus esposas ha recibido un telegrama que dice: «Estoy bien». Sin embargo, uno de los países solamente deja poner dicho telegrama mientras que el otro da opción a poner tres tipos de telegrama: «Estoy bien», «estoy delicado», «estoy gravemente enfermo». Fácilmente se observa que, aunque ambas han recibido el mismo telegrama, no han tenido la misma cantidad de información.
Para que haya alguna cantidad de información debe existir algo imprevisible. Lo que ya se conoce no informa; el decir, por ejemplo, que después del día se hará de noche no es dar ninguna cantidad de información. La información se mide, pues, por la probabilidad de que exista una posibilidad entre otras diversas.
La cantidad de información se da en forma logarítmica; siendo 2, generalmente, la base de los logaritmos, la expresión queda:
Cantidad de información = - log 2 (Probabilidad de la realización del suceso antes de la recepción del mensaje).
Entonces, la unidad de información o cantidad unitaria será -log2 1/2 = log2 2, o sea log 2/ log 2 = 1 este valor se llama bit, contracción de la expresión inglesa binary digit; por tanto, en general, se dirá que la cantidad de información contenida en un mensaje es de tantos bits.
Pero la información ha de ser transmitida por algún sistema físico que en la realidad no puede carecer de cierto «ruido», lo cual obliga a estudiar la forma de que estos ruidos perturbadores sean mínimos; de ahí que haya que transmitir la información en una cierta banda pasante. Entonces, la fórmula de Tuller-Hartley da la cantidad O de información máxima que puede ser transmitida por unidad de tiempo.
O = N log2 (1 + S/F)
en la cual N es el valor de la banda pasante en periodos por segundo, S potencia media de la señal y F la potencia media del ruido de fondo.
Dado que, según se ha explicado anteriormente, un sistema producirá mayor información a medida que sea menos probable en la configuración, existe una correlación entre este concepto y el concepto férreo de la entropía.
El segundo principio de la Termodinámica dice que «la energía de un sistema aislado es constante y su entropía, que es una cierta función definidora del sistema, varía siempre en el sentido de crecimiento. La energía del Universo es constante y su entropía crece constantemente».
La expresión matemática de la ley de los gases establecida por Boltzmann y la de Shannon para la información son perfectamente análogas y solamente varía el signo y la constante, pero ambas del tipo
k (hΣ1) π log π
siendo π las probabilidades de los estados posibles (hΣ1 π = 1). Se ve así que la Cibernética abarca la teoría de la información y no se comprende aquélla sin ésta, pero, además, estudia el programa, la transmisión y la guía de la acción, último destino de la información.
La acción de la máquina sobre la materia que trata la realizan los órganos de ejecución y éstos son guiados por los órganos de control.
La descripción de las distintas operaciones que efectúan los órganos de una máquina es la lógica de la máquina y la lógica del control de las operaciones de mando es la Cibernética de la máquina.
Toda máquina está incluida en una de las categorías siguientes: reacción del. medio de acuerdo con un programa preestablecido, reacción imprevisible pero sometida a leyes conocidas, y, por último, reacción totalmente imprevisible.
En el primer caso, el control de la máquina consistirá en proporcionarle un programa. Tal tipo de máquina se llama secuencial o de programa y los calculadores numéricos son un ejemplo de ello.
En el segundo caso, la máquina va provista de órganos que recogen información sobre el medio y la retrotraen a los órganos calculadores para que, combinados adecuadamente, se obtengan las modificaciones pertinentes al programa. En tal caso la máquina se llama refleja o adaptativa. Aquí entra el concepto de retroalimentación («feedback»), base de la tecnología de los servosistemas. Ejemplo muy conocido de este tipo de máquinas es el del tiro automático mandado por radar.
En lo que afecta al tercer caso, el hombre no ha podido ser remplazado hasta ahora por la máquina. De aquí se deduce que el estudio de la mayor automatización posible en las máquinas y procesos, tan importante en todos los campos de la actividad humana, es dominio de la Cibernética, que en este caso se podría llamar Ingeniería cibernética.