Andrei N. Kolmogorov (1903-1987) | PERFIL BIOGRÁFICO | | Nacido en Tambov (Rusia), estudió Historia y Matemáticas en la Universidad Estatal de Moscú, donde fue discípulo de Nikolai Luzin y se doctoró en 1925. En 1931 fue contratado como profesor de matemáticas en la Universidad de Moscú, donde obtuvo en 1937 la cátedra de Teoría de la Probabilidad; fue director del Instituto de Investigación Científica de las Matemáticas (1933-39) y decano de la Facultad de Mecánica y Matemáticas (1954-58). En 1939, ingresó en la Academia de las Ciencias de la URSS. Presidente de la Sociedad Matemática de Moscú (1964-66 y 1976-83) Sus múltiples contribuciones en distintos campos del conocimiento le han situado entre los grandes científicos del siglo XX. Sus hallazgos en dinámica de sistemas, análisis funcional, teoría de la probabilidad y estadística, lógica matemática, intuicionismo y constructivisno lógicos, complejidad y turbulencia, teoría de la información, automática y cibernética, etcétera, le valieron las más altas distinciones del sistema soviético (seis veces Orden de Lenin, Orden la Revolución de Octubre, Héroe del Trabajo, Premio Lenin, Premio Lobachevsky, etc.). Miembro de prestigiosas sociedades internacionales como la American Academy of Sciences and Arts de Boston (1959), la London Royal Society (1964), la National Academy of the United States (1967), la Academia de las Ciencias de Francia (1968),. etcétera. Asimismo, doctor 'honoris causa' de universidades como las de París, Berlín, Varsovia, Estocolmo, etc. En 1963 fue distinguido con el premio internacional Bolzano. Las contribuciones de Kolmogorov en el campo de la teoría matemática de la información amplían y dan un sentido más profundo y complejo a las formulaciones teóricas de Claude Shannon. Plantea una teoría de la complejidad que va más allá de los postulados del norteamericano, que partían de una concepción estadística de la información, y permiten su traslación al campo computacional. La complejidad de un mensaje está determinada por el tamaño del programa necesario para poder recibir el mensaje. A partir de estas consideraciones sobre complejidad e información, analizó la entropía en los texto literarios, con atención especial a la obra poética de Pushkin, lo que dio origen a una corriente de estudios sobre 'lingüística estadística'. La entropía aparecía aquí determinada por la capacidad semántica del texto, en función de su extensión, para transmiti r un mensaje, y por la propia flexibilidad del lenguaje poético, sujeto a normas métricas y estilísticas concretas. Las teorías matemáticas de la información de Kolmogorov influyeron en Yuri M. Lotman, que emplea su método para medir la complejidad del lenguaje artístico. | | Comunicación, Sociedad y Cultura, Perfil biográfico y pensamiento. © BDN/Infoamérica. |
| |
|
No hay comentarios:
Publicar un comentario