jueves, 22 de mayo de 2008

- TRAZOS GEOMETRICOS

- TRAZOS GEOMETRICOS

La geometría

La enseñanza de la geometría tiene como propósito contribuir efectivamente al desarrollo de los procesos de apropiación o dominio de las relaciones del sujeto con el espacio circundante; sin embargo, hasta hace muy poco tiempo nuestro conocimiento sobre estos procesos y sobre las situaciones que pueden propiciarlos era escaso. La enseñanza tendió a centrarse en la definición de objetos geométricos y en la construcción de figuras o cuerpos sin una problematización que hiciera necesario analizar sus propiedades. Posteriormente en la secundaria, mediante un salto abrupto, se pasaba a la demostración en la geometría euclidiana.

Actualmente se dedica un espacio mucho más amplio al estudio de la geometría, dándole gran importancia al análisis de las propiedades de líneas, figuras y cuerpos, al uso de instrumentos para realizar diferentes trazos, a la ubicación espacial y al cálculo geométrico.

En este bloque se revisan algunos de los aspectos centrales del tema de geometría en la escuela primaria, tanto los relativos a la orientación espacial y al conocimiento geométrico del espacio como los que se refieren al análisis de diferentes estrategias para su enseñanza.

Propósitos

Por medio del estudio de los contenidos y la realización de las actividades propuestas se espera que los estudiantes:

1. Profundicen en el conocimiento y la comprensión de las nociones básicas sobre geometría.

2. Utilicen adecuadamente los instrumentos para efectuar trazos geométricos.

3. Analicen secuencias de situaciones didácticas para el estudio de las nociones básicas de geometría.

4. Utilicen diversos materiales como recursos que favorecen el aprendizaje de la geometría.

Temas

· Orientación, organización y estructuración del espacio; el plano cartesiano.

· Propiedades geométricas de figuras planas y cuerpos.

· Dibujo y trazos geométricos. Construcciones con regla y compás.

· Situaciones didácticas para el desarrollo de la orientación espacial.

· Situaciones didácticas para el conocimiento de propiedades geométricas.











- RESEÑA HISTÓRICA DE ALGUNOS PROBLEMAS EN TEORÍA DE NÚMEROS

- RESEÑA HISTÓRICA DE ALGUNOS PROBLEMAS EN TEORÍA DE NÚMEROS

Facisímil de la portada de la “ARITMETICA” de Diofanto de Alejandría, originalmente editada por Bachet en 1650. En la versión que se muestra se incluyen las notas marginales hechas por el famoso matemático francés Pierre de Fermat, entre las que figura el hoy llamado “Último Teorema De Fermat”

Introducción

El propósito de este trabajo, es describir, en forma sucinta, la historia de algunos problemas centrales de la Teoría de Números. Muchos de ellos han ocupado la atención de matemáticos, y aficionados a las matemáticas por varias generaciones, y en determinados casos hasta por siglos. Entre estos problemas se destacan: la Conjetura de Golbach, el Último Teorema de Fermat, el Teorema de los Números Primos, el Problema de Catalán y el Décimo Problema de Hilbert.

Gauss consideraba a las matemáticas como la reina de las ciencias y a la teoría de números como la reina de las matemáticas. Este calificativo dado por Gauss a la teoría de números, tiene plena justificación, si se tiene en cuenta que, la historia de las matemáticas la tiene como su columna vertebral y porque grandes matemáticos, desde la antigüedad hasta nuestros días, la han cultivado y mantenido como una de las áreas más fecundas del terreno matemático. Los problemas de la teoría de números tienen diferente grado de dificultad. Algunos son fáciles de plantear y fáciles también de resolver, como es el caso de establecer la infinidad de los números primos. Fue Euclides, quien, en forma por demás elegante, mostró que el conjunto de números primos es infinito.

Hay problemas de fácil formulación aunque de muy difícil prueba. Ejemplos típicos de éstos, son la Conjetura de Golbach y el Último Teorema de Fermat. Hay un tercer grupo de problemas que se caracteriza por su difícil formulación e igualmente difícil prueba. A manera de ejemplo citamos aquí la siguiente proposición: Dos formas cuadráticas son congruentes en el campo racional si y sólo si son congruentes en los reales y en todos los cuerpos p-ádicos.

Los números enteros, materia prima de la teoría de números, tienen en conjunto, propiedades sumamente interesantes como veremos en el transcurso de la presente exposición. Empecemos por decir que cada entero en sí es interesante, pues si hubiese un conjunto de enteros positivos no interesantes, el menor de ellos ya sería de interés, contradiciendo su propia definición.

Godfrey Harold Hardy (1877-1947), el famoso matemático inglés, cuenta que en cierta ocasión comentó a Ramanujan, haber viajado en el taxi No. 1729, número éste, que en su opinión no tenía nada de interesante. El genio hindú le respondió: “Al contrario, 1729 es un numero muy especial, ya que es el primer entero positivo que puede expresarse como la suma de dos cubos, exactamente en dos formas diferentes”. En efecto, 1729 = 103+93 = 123+13. El número 123 = 1728, estudiado por Ramanujan, desempeña un papel importante en la teoría de formas modulares elípticas, área en la cual contribuyó profusamente.

S. Ramanujan (1887-1920) G. H. Hardy (1877-1947)

Los enteros positivos tuvieron singular importancia en la filosofía de la escuela pitagórica (siglos VI-III A.C.). Para Pitágoras todo era números y el número era la única vía de llegar a la esencia de las cosas. Los enteros positivos fueron clasificados como femeninos (pares) y masculinos (impares). A los primeros números se les asociaron atributos humanos. Por ejemplo, el 2 significaba opinión, el 4 justicia (por ser el primer cuadrado perfecto), el 5 matrimonio (suma de par e impar). El uno no era considerado estrictamente como un número, si no como el “divino generador de todos los números”. De otra parte, para los pitagóricos, el uno era el punto, la recta el dos, una superficie el número tres y el cuatro estaba ligado a los sólidos. De la suma de estos, aparecía el número diez, el tetractys, considerado por ellos como potencia sagrada y omnipotente. El diez estaba clasificado entre los números triangulares. Estos números, como todos los números conocidos como poligonales, se obtenían a partir de arreglos geométricos del tipo que muestra la figura.





LAS TRIPLAS PITAGÓRICAS Y EL ÚLTIMO TEOREMA DE FERMAT.

Hay suficiente evidencia como para creer que los babilonios del II milenio antes de Cristo, conocían un procedimiento para obtener soluciones enteras de la ecuación

x2 +y2 =z2 (*)

En efecto, en los años 40, fueron interpretadas por O. Neugebauer y A. J. Sachs, varias tablillas babilónicas de contenido matemático entre ellas, la Nº 322 de la colección Plimpton, en la cual aparecen muchas triplas pitagóricas (a, b, c) que satisfacen (*). La tripla (3, 4, 5) es una de ellas. Esta tripla pudo haberse encontrado por ensayo y error, pero no podría decirse lo mismo de la tripla,

(4961, 6480, 8161)

Que también aparece en la tablilla 322. Esto muestra que la cultura babilónica poseía probablemente la fórmula parra encontrar valores que satisficieran la ecuación diofantina (*). En el libro XII de los “Elementos” de Euclides se describe el método para hallar todas las triplas pitagóricas primitivas que resuelven la ecuación mencionada. En notación moderna la solución puede expresarse así:

(**) x = 2uv, y =u2-v2, z = u2+v2v

Donde u y v son enteros positivos de diferente paridad (uno par, el otro impar), u > v y u, v primos entre sí. Que (x, y, z), dados en (**) satisfacen (*), se obtiene directamente de la identidad algebraica:

(u2 + v2)= (u2- v)2 + (2uv), donde x= (2uv)2, y = (u2- v)2, z = (u2 + v2 ) 2.

La proposición más nombrada y quizás con el mayor número de demostraciones erróneas en la historia de las matemáticas, es el llamado Último Teorema de Fermat. PIERRE DE FERMAT (1601-1665), aunque jurista, logró su fama como matemático de gran creatividad. Al margen de su copia del libro Aritmética, escrito por Diofanto y editado por Bachet en 1650 (véase facsímil de la portada al comienzo del artículo), Fermat escribió:

Descomponer un cubo en dos cubos, una cuarta potencia o en general una potencia en dos potencias de la misma denominación, por encima de dos, es imposible. Yo he encontrado una maravillosa prueba de este hecho, pero el margen es demasiado estrecho para contenerla”.

Han pasado tres siglos desde entonces y la demostración para el teorema sólo vino a encontrarse finalizando el siglo XX, con los trabajos de Andrew Wiles de la Universidad de Princeton. Es poco probable que Fermat conociera una demostración, más si se tiene en cuenta que, usando el método del descenso infinito, él demostró el teorema para el caso de cuartas potencias. La lucha por demostrar el Último Teorema de Fermat ha contribuido a crear todo un cuerpo de nuevas teorías, como es el caso de la teoría de cuerpo ciclotómicos y la teoría de ideales, iniciada en los trabajos de Ernest Kummer (1810-1893). Kummer probó el teorema para todos los primos regulares, pero aunque estos primos son empíricamente más abundantes que los irregulares, nadie ha podido mostrar su infinitud. Esto contrasta con el hecho de que es relativamente fácil demostrar que el conjunto de primos irregulares es infinito.

Simbólicamente el Último Teorema de Fermat, afirma que la ecuación diofantina

xn + yn =zn

no tiene soluciones (no triviales) enteras, para n mayor que dos. Soluciones triviales se encuentran tomando una o todas las variables iguales a cero.

Una ecuación diofantina es una ecuación del tipo

P (x1, x2,…., xn) = 0




src="https://blogger.googleusercontent.com/img/b/R29vZ2xl/AVvXsEj_jAR6AAj5ctg7R4_PIqHFbw1hUpI6QoCQINYj7lnnqbL8jmzzQAReYGPH1jZizT8IFE74LMpG6KsXj2sdd5l43_LT9hL7DK9gfyiviGld1aDNCSd3ur_egxyA78b3J7jFgmVtPQME3oz2/s320/TN1.JPG" alt="" id="BLOGGER_PHOTO_ID_5203303263748339474" border="0" />

- LA IMAGEN INTELIGENTE: ¿NEUROCINEMA O CINEMA CUÁNTICO?1



- LA IMAGEN INTELIGENTE: ¿NEUROCINEMA O CINEMA CUÁNTICO?1

1. De las máquinas de movimiento a las máquinas de visión

En el siglo XIX, había una obsesión con el movimiento –con ilusiones de movimiento y con máquinas de movimiento. Había dos tipos de máquinas de movimiento: la primera intentaba analizar el movimiento, y la segunda, sintetizarlo. A la cámara le correspondía analizar el movimiento, y al proyector, sintetizarlo. La evolución del cine durante el siglo XIX puede atribuirse a dos tendencias fundamentales: la primera, fue el progreso realizado en la fisiología y la psicología experimentales, que terminó en la psicología Gestalt; la segunda, los avances en las máquinas, que intentaban adaptar y transferir el mecanismo fisiológico de la percepción a máquinas capaces de simular visualmente el movimiento, pero no –y allí es precisamente donde reside el problema– a máquinas de percepción.

De manera que lo que hoy conocemos como cinema, es en realidad una reducción del principio vigente en el siglo XIX, que comenzó a investigar máquinas de visión, pero terminó reduciéndolas a máquinas de movimiento. En este punto se encuentra la industria de la imagen en movimiento con sus motion pictures –en una palabra, el sistema de Hollywood. Su código es un legado del siglo XIX, y reduce la exploración inicial de máquinas de visión a máquinas de movimiento. Sólo el cine de vanguardia de los años veinte, cincuenta y sesenta logró mantener la intención original de crear máquinas de visión.

s por ello, que el cine clásico ya limitó la idea inicial vinculada a la percepción. Esa percepción se redujo a la percepción del movimiento, y quedó en el ámbito de la retina, ya que no se analizaba a fondo la forma en que nuestro cerebro percibe el mundo. Se construyeron máquinas con una especie de notación gráfica – la méthode graphique (Etienne-Jules Marey) - del movimiento. Trágicamente, este método sigue siendo válido hoy en día.

Lo que hizo Marey con su famoso método gráfico fue analizar, y descomponer, el movimiento. No importaba si se usaba la máquina de dibujo, o –como en el caso de Eadweard Muybridge– una máquina fotográfica. Pero tanto Muybridge como Marey comprendieron enseguida que no bastaba con analizar el movimiento, necesitaban muchas otras máquinas para proyectar y sintetizar el movimiento. Podemos concluir esta interpretación, con el hecho de que el cinema se inventó en el siglo XIX. El siglo XX no hizo más que transformar las invenciones del siglo XIX en medios masivos normalizados, incluida la televisión, que se convirtió en un aparato de consumo. Como efecto secundario, convertimos simultáneamente estas

máquinas no sólo en medios masivos de comunicación, sino también en arte, desde un enfoque individual.

El cine constituye la escritura del movimiento (cinematografía); no es más que una máquina que simula el movimiento del ojo. La vanguardia, desde Dziga Vertov hasta Steina y Woody Vasulka, mantuvo la idea inicial: una máquina para la visión, no una máquina para el movimiento. Vertov nos dio el término Kinoglaz, el ojo de la cámara. Con el advenimiento del vídeo (en latín: yo veo ), se hizo evidente que teníamos que dar el paso paradigmático, de la imitación y la simulación del movimiento, a la imitación y la simulación de la visión con ayuda de las máquinas. Teníamos que ir de la cinematografía (la escritura del movimiento), a lo que yo llamaría la escritura de mirar: la opsigrafía, del griego opsis (como en “óptica”). O incluso la opsiscopía, el mirar del mirar –en otras palabras, la observación de mecanismos de observación. En el ciberespacio, por ejemplo, cuando uno se ve a sí mismo y sus acciones como una imagen, ya está en el espacio opsiscópico. La observación de sí mismo en un cuadro que se observa es una observación de segundo nivel. De hecho, el ciberespacio es el comienzo de la opsiscopía: de máquinas, que ven como nosotros vemos o miramos.

2. La imagen interactiva

El aparato técnico que se ha usado hasta ahora para crear imágenes que representan la realidad imitaba la tecnología orgánica de un aparato natural: el órgano de la visión. La posibilidad de imitar el movimiento mediante cuadros fue un paso decisivo para mejorar la representación de la realidad, y constituyó la base para transformar la pintura y la fotografía en cine, como una tecnología de trompe l'oeil que simula el movimiento. Hubo un avance en la tecnología de la imagen y su tendencia, a finales del siglo XX, a imitar la vida, pasando de la simulación del movimiento (el motion picture ), a la simulación de la interacción: la imagen que respondía y reaccionaba; la imagen como sistema vivo; el cuadro viable. El ordenador permitió el almacenamiento virtual de la información como configuración electrónica. La información ya no se encerraba magnética o químicamente, como cuando se guardaba en la cinta cinematográfica o la cinta de vídeo. La virtualidad del almacenamiento de la información liberó la información y la hizo variable. La imagen se convirtió en un campo pictórico, los pixels se convirtieron en variables que podían alterarse en cualquier momento. El famoso dictado de Williard van Orman Quine, que fundó una filosofía de la relatividad ontológica, afirma que “ser es ser el valor de una variable (encerrada)”. Esto puede aplicarse perfectamente a la imagen virtual, a la Realidad Virtual –RV–. Esta virtualidad indujo la variabilidad del contenido de la imagen . Hasta cierto punto, la creación de una tecnología de interfaz entre el observador y la imagen resultó necesaria debido a la virtualidad y la variabilidad de la imagen; permitió que el observador controlara el comportamiento de la imagen mediante el suyo propio

El campo pictórico se convirtió en un sistema de imágenes, que reaccionaba al movimiento del observador. El observador formó parte del sistema que observaba. Por primera vez en la historia, se convirtió en un observador interno. En el mundo real, el observador es siempre parte del mundo que observa, siempre como observador interno. El observador externo existe sólo en un mundo idealizado, un mundo inexistente. La obra de Otto E. Rössler sobre “Endofísica” abre una nueva visión del universo y desarrolla la física del observador interno. El cine clásico imita este mundo idealizado (de la filosofía, la matemática y la física clásica). Con sus observadores internos, los sistemas de Realidad Virtual, por lo tanto, simulan un aspecto de la realidad y acercan las imágenes interactivas a la imitación de la vida.

a imagen en movimiento y el observador en movimiento convergieron hacia una nueva síntesis imagen- observador, que resulta en la imagen interactiva: la transformación más radical de la imagen. Los sistemas artificiales, cuyos comportamientos reaccionan de forma similar al de los sistemas vivos, han sido definidos como “viables” por filósofos constructivistas. Los nuevos sistemas de imagen tienen, por lo tanto, todo el derecho de también ser llamados “viables”. La viabilidad del comportamiento de la imagen convierte la imagen en movimiento en una imagen viva. De manera que el ordenador es un medio decisivo para simular perfectamente la realidad. La instalación interactiva SonoMorphis (link) ( 1998), de Bernd Lintermann y Torsten Belschener, simula los códigos de la evolución, los algoritmos del crecimiento de las plantas, dándole al espectador la posibilidad de crear nuevas especies, según los algorritmos de recombinación y mutación, basados en los seis organismos opcionales que se le ofrecen.

3. La imagen indexada

Estas revoluciones en la tecnología de la imagen conllevan la desconstrucción técnica y social de la imagen. Para dicha deconstrucción del aparato técnico de la imagen, el artista puede apoyarse en una revolución de materiales que permite una nueva física de la imagen. Véase Laserfilm (2000) de Michael Schmidt, Jörn Müller-Quade y Thomas Beth, que muestra el cambio de la óptica refractaria del pasado a la óptica difractaria del futuro. El papel importante de la indexación y la impresión en el arte moderno (particularmente a partir de los años sesenta, como resultado de una investigación artística basada en elementos materiales), indican que la imagen indexada (que se define a través de una relación material y física entre el signo y el objeto) sustituirá finalmente, como imagen postdigital, el mundo ilusionista de las simulaciones informáticas en tres dimensiones, ahora encumbradas en el máximo del éxito. La imagen indexada es el inicio de una nueva cultura de la materialidad de la imagen, comenzando por la nanotecnología, la química supramolecular y la ingeniería molecular. El importante progreso que se ha logrado en la química y la tecnología molecular ha dado lugar a nuevos materiales, incluidos los plásticos eléctricamente activos, que podrían constituir la próxima generación de recursos informáticos. La instalación interactiva de Chris Dodge llamada The Winds that Wash the Seas (1994-95), le permite al observador

3soplar contra la pantalla del monitor y alterar la imagen, según la dirección y fuerza de su aliento. Un segundo observador puede interactuar moviendo su mano en el agua. Ambos observadores están transformando la imagen. La obra interactiva en CD-ROM Impalpability ( Impalpabilidad, 1998) de Masaki Fujihata es también indexada en sus características, ya que la mano humana que manipula el ratón vuelve a aparecer en los close-ups en pantalla de una mano humana. Esta nueva cultura de la materialidad se verá marcada sobre todo por la transición de la tecnología electrónica a la nanotecnología, de la microelectrónica a la nanoelectrónica. La transición se apoya en tres etapas de desarrollo del ordenador. La era de los grandes ordenadores mostraba un ordenador con las dimensiones de una habitación y lo usaban varias personas. En la era del PC, una sóla persona usa un sólo ordenador, por eso el término “ordenador personal”. En la era futura de una tecnología tranquila y una computación ubicua, una persona vestirá y utilizará un montón de microordenadores. Pero ¿qué tipo de ordenador será? ¿Ordenadores cuánticos, ordenadores por DNA, ordenadores moleculares?

4. El Cinema y la Cibernética

La psicología Gestalt nació alrededor de 1900 y llegó a su máxima cumbre en 1930-1950. Este “fenómeno-fi”, un principio clásico sobre el que muchos cineastas de los años sesenta edificaron su obra, fue formulado por Max Wertheimer en 1910. A la psicología Gestalt le siguieron la neurofisiología y la ciencia cognitiva. Si seguimos en esta línea de pensamiento, se hace evidente que mientras las máquinas del siglo XIX estaban relacionadas con la fisiología experimental, las nuevas máquinas de visión deben relacionarse con la neurociencia y la ciencia cognitiva. Esto nos lleva al primer grupo que proporcionó una noción, que sería útil para los próximos cien años: los cibernéticos. De la calculadora al ordenador, pasaron a plantear máquinas que simularían el pensamiento y la mirada, así como el movimiento. Se comparaban las máquinas con el máximo órgano físico: el cerebro. En 1950, plantearon la posibilidad de construir máquinas que también pudiesen simular la vida. En 1950, apareció un artículo desconocido, pero maravilloso, de W. Grey Walter sobre una "Machina Speculatrix", –una máquina creativa y visionaria– con el título de “An Imitation of Life”. En su libro The Living Brain , escribió: “La primera noción de la construcción de un mecanismo libre orientado hacia un objetivo corresponde al psicólogo Kenneth Craik. Cuando fue contratado por el gobierno para una tarea relacionada con la guerra, buscó la ayuda de un analista automático, con algunas curvas muy complicadas que había conseguido, curvas relacionadas con los errores en la puntería de los artilleros antiaéreos. En esos días, el aire estaba literalmente lleno de mísiles en busca de su blanco; también lo estaban los mecanismos escaneadores. Mucho antes de que la biblioteca de la casa se convirtiera en taller, ambas ideas –la de la búsqueda del blanco y la del scanner – se habían unido como la concepción mecánica esencial de un modelo funcional, que se comportaría como un animal muy sencillo.

5. El cinema y la teoría de los sistemas: la tecnología de la interfaz

¿Cómo definimos un sistema? Las personas comprendían que debía haber una línea divisoria para sentar la diferencia entre sistema y ambiente. El axioma de la teoría de los sistemas consiste en “la construcción: haga una distinción”. Podemos ver nuestras líneas divisorias: la piel, luego una membrana. Lo que se conocía en el pasado como piel y membrana, se conoce ahora como “tecnología de interfaz”. Como línea divisoria que separa el sistema del entorno, la tecnología de la interfaz hace una diferenciación entre la imagen y el mundo real. Evidentemente, dicha diferencia no es muy clara, no es una línea divisoria como una pared, más bien es como una espuma.

Necesitamos una teoría de la línea divisoria, una teoría de la tecnología de la interfaz, para separar un sistema de su entorno, y permitir el intercambio entre ambos. Me refiero entonces a Ivan E. Sutherland y su artículo de 1963 sobre el ser humano, la máquina y la interfaz. Una vez más vemos la relación del siglo XIX entre el ser humano y la máquina, pero ahora hay un concepto nuevo que plantea que hay algo entre el ser humano y la máquina, que se llama la tecnología de la interfaz. La interfaz está entre el mundo y nosotros mismos, entre las máquinas y nosotros. A lo mejor, el mundo es sólo una interfaz. A lo mejor, podemos cambiar esa interfaz. Si no podemos cambiar el mundo, podemos ampliarla: aquí nos remitimos al expanded cinema y la tecnología de la RV. Lo importante de todo ésto, es que la línea divisoria –la interfaz— es permeable y variable. Se puede ampliar esta línea divisoria. Algo que es ahora el entorno, puede formar parte del sistema en el próximo paso. Algo que es ahora el sistema, puede ser el entorno para el subsistema. Lo que quiere decir que, si soy el observador externo de un sistema, puedo convertirme en parte del sistema en el próximo entorno, un observador interno para otro observador externo.

Normalmente consideramos que nuestra situación en el mundo real es idéntica a la del cinema clásico. Somos observadores externos de la imagen, y nuestra observación no tiene efecto alguno sobre la imagen. Pero hemos elaborado sistemas en los que nuestra observación es parte del sistema que observamos. Por lo tanto, la teoría cuántica, con sus efectos de observación (del "principio de incertidumbre" de Heisenberg, 1927, al "universo participativo" de John Archibald Wheeler, 1983) se convierte en el patrón modelo para los medios dependientes del observador, que se usan en las instalaciones y los sistemas de imagen interactiva. “Hablar del universo como circuito que se auto-estimula es implicar una vez más un universo participativo.”

Estamos obligados a ver que la imagen digital es, por primera vez, un sistema real. Con las instalaciones en circuito abierto, en las que el público entra en la imagen mediante la observación de la cámara, el vídeo se acercó mucho más que el cine a la teoría de los sistemas. Incluso el vídeo sellaba y encerraba la información magnéticamente. Para una imagen como sistema, se requiere el almacenamiento virtual de la información. La Realidad Virtual se basa en la virtualidad del almacenamiento de la información en el ordenador. Hoy en día, la información es sólo una representación electrónica, y eso significa que se puede modificar inmediatamente en cualquier momento. Así, la imagen es un sistema dinámico de variables.

6. El Cinema y los algoritmos genéticos

El próximo paso es definir como agentes las variables de un sistema de imagen. La idea de los agentes tiene una larga historia, cuyas raíces se remontan al matemático Axel Thue, que tenía un problema lingüístico. Imaginemos que tenía una serie de siete letras que constituían un alfabeto; se ponía a escribir una fórmula, digamos con cuatro letras. Tenía dos reglas gramaticales: A puede siempre transformarse en B y A, mientras que B puede siempre transformarse en A. Estaba intentando descubrir un método general, un alg ori tmo, que decidiría si una fórmula escrita (por ejemplo, cuatro letras) podía derivarse, mediante las dos reglas (la gramática), de las siete letras (el alfabeto). La no-solubilidad del “problema de palabras” de Thue se hizo famosa gracias a Emil Leon Post. Noam Chomsky, que utilizó sistemas Semi-Thue, inventó los primeros modelos lógico-matemáticos para el lenguaje natural. Sobre esa base, en 1960 Backus y Naur desarrollaron un lenguaje más de programación, el ALGOL (lenguaje algor í tmico). Posteriormente, el biólogo belga Aristid Lindenmayer inventó, en 1967, el Sistema-L (el Sistema Lindenmayer), un lenguaje de programación, denominado “algoritmo genético”, que era una aplicación clara de la técnica de Thue. Apoyándose en este modelo matemático-lingüístico, ¡pudo simular el crecimiento de las plantas! Ni la geometría ni las máquinas de visión, sino un lenguaje de programación, basado en la matemática, permitió imitar los procesos de vida, como la morfogénesis y el crecimiento de formas.

7. La comunicación inalámbrica y el ciberespacio no-local, distribuido y compartido

Para lograr imágenes inteligentes en el futuro, debemos aplicar la idea de la red, lo que significa que el observador ya no es parte de la jerarquía. La llamada pirámide jerárquica visual se aplicaba a la imagen clásica: un observador miraba una sóla imagen. En la próxima década, debemos tratar de convertir la imagen en un sistema, en el que el observador no sea más que un nudo en la red del sistema de imágenes. El observador, que habrá dejado de ser privilegiado, será entonces una máquina de interfaz periférica, como cualquier otra máquina. Debemos recordar que el cinema comenzó con un sólo observador, que miraba hacia una única máquina. La forma clásica era la de un observador, una película, un espacio. Poco a poco se fue transformando en una experiencia colectiva, pero incluso en una sala de cine hay una sóla película, que se proyecta localmente en un espacio aislado a un mismo tiempo. El principio de la unidad sigue vigente.

8. El Neurocinema

En el siglo XIX, se descubrió que las neuronas usan potenciales de acción para enviar señales a través de largas distancias. La naturaleza del todo o nada del potencial de acción significa que codifica la información según su presencia o su ausencia, pero no según sus dimensiones o formas. En este sentido, un potencial de acción podría considerarse una pulsación. ¿Cómo representan los potenciales de acción estados sensoriales y actividades mentales? ¿Cómo se inserta la información en los patrones liberadores de los potenciales de acción almacenados y recuperados? Le debemos las primeras imágenes de redes nerviosas a Ramón y Cajal (biografía).Éstas permitieron hacer la pregunta sobre la forma en que el cerebro procesa la información, a fin de que sea más precisa. La excitación y la inhibición ya se conocían en 1900 como atributos de las actividades de las redes nerviosas. Pero los efectos de excitación e inhibición de los pulsos nerviosos los demostró David Lloyd por primera vez en 1946.

Las ideas sobre la estructura lógica de la mente desarrolladas por Leibniz y otros se apoyaron en el conocimiento incipiente de la estructura y las funciones de las redes nerviosas. Leibniz mostró que la lógica puede reducirse a la aritmética, y que la aritmética puede expresare en un código binario (todos los números pueden expresarse con los dígitos 0 y 1).

El cinema del futuro podrá simular o estimular precisamente esas redes nerviosas basadas en el impulso. En lugar del trompe l'oeil , el próximo paso podría ser el trompe le cerveau –el aparato cinematográfico engañará al cerebro, no al ojo, dirigiendo y controlando redes nerviosas con precisión y con el apoyo de máquinas moleculares. Podríamos entonces imitar la visión, construir una experiencia cinemática sin luz ni ojos, crear imágenes sin percepción, trasladadas mediante la estimulación directa de redes nerviosas. Gracias a códigos temporales, basados en impulsos que estimulan directamente el cerebro, con ayuda de neurochips o chips cerebrales, habría percepción sin los sentidos, se vería sin tener que usar los ojos. La estimulación –la representación artificial del mundo basada en pulsaciones– sustituiría la simulación. El cerebro, en oposición al ojo, se convertiría en la pantalla.

En el siglo XXI, es posible que la neurofisiología asuma el papel que desempeñó la fisiología en el desarrollo del cine durante el siglo XIX. El progreso en la neurofisiología y la ciencia cognitiva augura que los ingenieros del futuro tendrán éxito en aplicar estos descubrimientos a las máquinas nerviosas y moleculares, que transforman la tecnología de la simulación para engañar el ojo, en una tecnología de la estimulación, que a su vez engaña el cerebro.

9. Cinema cuántico

El escalamiento es un campo relacionado con el cinema del futuro. Si trabajamos en el ámbito de la química supramolecular o la nanotecnología, ¿podemos inventar un aparato cinematográfico que nos permita manipular no sólo las neuronas, las células y las redes neuronales individuales, sino también partículas más pequeñas que las neuronas? Si esto resulta factible, entonces podemos aprender de la teoría cuántica, que nos enseña que la realidad es relativa al observador. Cualquier cosa que se observe, se ve modificada también por el mero acto de la observación. Ello significa que debemos pasar de la tecnología del receptor (las cámaras), a la tecnología del ejecutor. Hasta ahora, sólo hemos desarrollado receptores: máquinas de grabación, con las que podemos grabar y representar el mundo.

Einstein, después de Newton, no creía en las “acciones a distancia”. La teoría cuántica predijo que parejas de fotones se comportan en forma idéntica en medidas correlatas, y por eso se dice que los fotones están “enlazados”: parece que si se mide uno, instantáneamente se está “influyendo” en el resultado de la medida del otro, aunque estén separados. Einstein llamaba este comportamiento una “acción fantasmal a distancia” o “extraña acción a distancia” . En 1964, John Bell mostró que este comportamiento teóricamente existe. La capacidad aparente de los sistemas cuánticos de actuar a distancia se conoce como la no-localidad. Experimentos llevados a cabo por Clauser, Aspect y Zeilinger han confirmado la naturaleza enlazada y supercorrelata del estado de dos fotones y la posibilidad de interacciones entre mecanismos de medición remotos. En mundos virtuales interactivos distribuidos o dislocados, encontraremos la misma inseparabilidad. La interacción será no sólo unidireccional del observador hacia la imagen, de lo real hacia lo virtual, sino también bidireccional –de lo virtual de regreso hacia lo real, de la imagen de regreso hacia el observador. La computación reversible permitirá relaciones reversibles entre el espacio real y el espacio de la imagen. Esta interacción no estará limitada localmente (como era el caso incluso con la interacción apoyada en la computación), sino que será correlativa entre mundos virtuales distantes, o entre mundos reales dislocados y mundos virtuales. La estructura de la comunicación no local se apoyará en agentes o asistentes inteligentes virtuales, desde GPS ( Global Positioning Systems), hasta teléfonos móviles WAP. Estos sistemas de imagen inteligentes significan un paso futuro hacia la liberación de los seres humanos de la prisión natural del espacio y el tiempo.





- PAPIROFLEXIA MATEMATICA

- PAPIROFLEXIA MATEMATICA

Cualquier persona interesada en la educación matemática en los niveles obligatorios,

reconoce que para aprender Matemáticas hay que hacer Matemáticas. En estas etapas

es muy importante el aspecto manipulativo de esta materia. Por ello no es raro

encontrar multitud de materiales y recursos como tangram, geoplanos, puzzles,

varillas, troqueles, etc. que potencian ese aspecto de hacer Matemáticas. Queremos

mostrar uno de los recursos más usuales a nuestro alrededor, pero no por ello menos

atractivo: el papel.

Se considera la papiroflexia (también llamada origami por su ascendencia japonesa)

como el arte de realizar figuras doblando papel, sin cortar ni pegar. Todos nos hemos

sentido atraídos en algún momento por ese arte. Aunque alguien piense que no es

propio de personas adultas hacer figuritas de papel, seguro que en otras épocas todos

hemos realizado, con verdadero deleite, aviones, pajaritas, barcos o figuras más

elaboradas. El trabajar con papel, y conseguir elementos reconocibles después de

realizar algunos pliegues, es una actividad altamente gratificante.

Por todo ello quien esté preocupado por la didáctica de la matemática no puede dejar

de lado este recurso tan motivante para nuestros alumnos. En clase el plegado de

papel se puede utilizar en muchos aspectos del currículo: desde algunos fáciles, como

demostrar que los tres ángulos de un triángulo suman 180º, hasta otros más

complicados, como conseguir las cónicas a partir de su envolvente o una espiral

logarítmica a partir de un hexágono. Podemos también pasar del plano al espacio,

resultando especialmente atractivo conseguir poliedros y otras figuras de tres

dimensiones, bien directamente por plegado o bien uniendo módulos previamente

doblados.

Además es posible afrontar el trabajo en clase con distintos niveles de dificultad:

desde la mera construcción, por ejemplo, de un triángulo equilátero, hasta el estudio

matemático de por qué lo que obtenemos es, en realidad, equilátero.





































-ÁREAS DE VACANCIA DE LA MATEMÁTICA Y SUS APLICACIONES

- ÁREAS DE VACANCIA DE LA MATEMÁTICA Y SUS APLICACIONES

Los siguientes campos de la Matemática, junto con las actividades interdisciplinarias y aplicaciones que la involucran, son áreas de vacancia en nuestro país que, en virtud del desarrollo alcanzado por algunos grupos de investigación en temas relacionados, deberían tener buenas posibilidades de desarrollarse. El apoyo se distribuirá en partes iguales entre las cinco áreas de la Matemática aquí descriptas.

Probabilidades y Estadística

Entre los posibles campos de aplicación se encuentran:

§ Métodos estadísticos en genética: análisis de datos en “microarrays” (tratamiento de la expresión de numerosos genes en paralelo, de gran importancia en la investigación farmacéutica).

§ “Linkage analysis”: métodos estadísticos destinados a la detección de secuencias de genes asociados a características hereditarias, en particular enfermedades. Análisis de supervivencia: técnicas estadísticas para la predicción de sobrevida en pacientes a partir de la medición de variables clínicas y/o tratamientos utilizados.

§ Análisis de la varianza: técnica estadística para medir la importancia de distintas fuentes de variabilidad. Se aplica, por ejemplo, a los items anteriores.

§ Series de tiempo: modelos utilizados en Economía y Finanzas para predecir volatilidades.

§ Estadística Espacial: se aplica a la prospección de materiales e hidrocarburos, a silvicultura y al análisis de experimentos agrícolas.

§ Procesamiento estadístico de imágenes: es un tema con vastas aplicaciones en Meteorología, Agricultura y Ecología.

§ Procesos estocásticos: entre las aplicaciones de esta área de la Teoría de Probabilidades se pueden mencionar las siguientes:

§ Ecuaciones diferenciales estocásticas: se aplican en Física (por ej. En Mecánica

§ Estadística) y son de suma importancia en Finanzas.

§ Campos Markovianos: se utilizan en el procesamiento de imágenes.

§ Análisis de traza sísmica: se aplica en la prospección de yacimientos de petroleo.

§ Diseño y control de redes de tránsito.

Ecuaciones Diferenciales y Análisis Numérico

Las ecuaciones diferenciales juegan un papel esencial en el modelado de procesos físicos, químicos, biológicos, económicos, atmosféricos, oceanográficos, etc.

También son utilizadas en la industria para el control de procesos de producción, para la simulación por computadora de procesos, etc.

Además, son parte fundamental de modelos ecológicos y de propagación de infecciones.

La resolución efectiva de las ecuaciones diferenciales requiere, en casi todos los casos, el uso de métodos numéricos. Su diseño y el análisis de su efectividad es uno de los temas centrales del Análisis Numérico. Cabe señalar que un tipo de métodos numéricos ampliamente utilizado, especialmente en la ingeniería, es el de elementos finitos. Esta clase de métodos requiere la aplicación de avanzadas técnicas matemáticas.

Se pretende incentivar la participación de matemáticos tanto en el desarrollo de modelos de procesos como los antes mencionados como en la resolución numérica de los mismos.

Análisis Armónico, Funcional y Teoría de Aproximación

Importantes desarrollos en Análisis Armónico, Funcional y Teoría de Aproximación, tales como Descomposición Atómica de Espacios de Señales, Teoría de Wavelets, Teoría de Marcos, Análisis de Transformadas, Acotación de Operadores, Teoría de Muestreo, Caracterización de Espacios de Funciones como Modelos en Ingeniería, Espacios de Aproximación y Multiresolución, Análisis Tiempo Frecuencia, constituyen el marco teórico adecuado para el tratamiento, entre otras, de las siguientes aplicaciones tecnológicas:

§ Procesamiento de Imágenes - Imágenes Biomédicas - Mamografía digital

§ Radiografía Digital - Resonancia Magnética y Tomografía

§ Proceso de la Voz - Eliminación de Ruido - Teoría de Antenas

§ Telefonía celular y satelital - Telecomunicaciones

§ Transmisión de Datos – Transmisión de Imágenes por Internet

§ Tecnologías militares para la defensa

§ Prospección petrolera

§ Modelos Fractales en Biología.

Geometría Algebraica y Teoría de Números

Tanto en la Teoría de Códigos como en la Criptografía se aplican, de manera esencial, sofisticados conceptos y técnicas de la Teoría Algebraica de Números (congruencias, sumas exponenciales, ecuaciones de cuerpos finitos) y de la Geometría Algebraica (curvas elípticas).

§ Teoría de Códigos Autocorrectores: los códigos autocorrectores tienen por objeto la transmisión de datos y la posible reconstrucción de información a partir de una pequeña parte de la misma. Un importante ejemplo de esto es la construcción de CD’s poco vulnerables a rayaduras.

§ Criptografía: trata sobre la transmisión de datos privados de manera segura. Se utiliza, por ejemplo, en las transacciones comerciales con uso de tarjetas de crédito y en las operaciones bancarias.

Geometría Diferencial, Física-Matemática y Teoría de Control

Entre las aplicaciones y las actividades interdisciplinarias relacionadas con esta área pueden ser mencionadas las siguientes:

§ Teoría de Bifurcación y Robótica: estudia los saltos cualitativos que aparecen en el comportamiento de sistemas mecánicos, eléctricos o electrónicos y su posible estabilidad. Esto es de crucial importancia en el diseño de grúas robóticas, piernas y brazos de robots, vehículos autónomos como los utilizados en la explotación minera y en rodamientos sobre aire.

§ Sistemas Dinámicos Lagrangianos y Hamiltonianos: en los sistemas mencionados en el párrafo anterior se utilizan, cada vez con mayor eficacia, métodos de la mecánica geométrica Lagrangiana y Hamiltoniana. A esto hay que agregar aplicaciones a la Física de plasmas y al diseño de cristales líquidos y materiales de todo tipo así como al control de su comportamiento (caso de pantallas de cristales líquidos, por ejemplo). Por otra parte, el diseño de órbitas y el control de naves espaciales se basa en técnicas de la Mecánica Lagrangiana y Hamiltoniana. En este marco, los sistemas no-holónomos y los sistemas algebraico-diferenciales merecen una mención especial por sus aplicaciones a cierto tipo de robots, a los sistemas electromecánicos y electrónicos de potencia, a sistemas de locomoción de microorganismos y a la nanotecnología.

§ Física Teórica: la Geometría Diferencial juega un rol central en la Teoría de Campos de la Física Teórica de nuestros días. Las teorías de gauge, con la teoría de Yang-Mills como punto de partida, o la teoría de cuerdas son ejemplos de una fuerte interacción entre Física y Matemática que ha dado lugar a una fértil actividad interdisciplinaria en los principales centros científicos del mundo. Esta interacción debería ser incrementada en nuestro país en atención a la relevancia que tiene en los más importantes avances de la Física Teórica en la actualidad.