La Matemática —a saber: “la ciencia de las conclusiones necesarias”, en ceñidas palabras del norteamericano Benjamin Peirce— ha vuelto a poner su elegancia y formalismo a disposición de causas importantes y, desde abstracciones y axiomas, desentrañó uno de los grandes interrogantes del nuevo milenio: ¿por qué todos los hipsters acaban pareciéndose los unos a los otros? Tamaña pregunta motivó al neurocientífico matemático Jonathan Touboul, del Collège de France, en París, a crear una ecuación que desentrañase el misterio de cómo los inconformistas por definición acaban conformándose con look, moda, intereses, etcétera, similares. ¿Paradoja aplicada? Así pareciera ser, de coincidir con las conclusiones del paper viralizado, sencillamente titulado “El efecto hipster”, que oscila entre la física estadística, la bifurcación de Hopf, entre otras cuestiones, para dar con una explicación plausible.
Acompañado por fórmulas complejas, cuenta Touboul en su explicación que, “detectado un desequilibrio azaroso, todos los individuos inconformistas tenderán a desalinearse de determinada tendencia, independientemente de que aumenten en proporción y que generen un claro sesgo contrario a aquella tendencia. Esto será detectado pasado un tiempo, dando lugar a un cambio recíproco, oscilación que volverán a repetir periódicamente. Ergo, más allá de sus esfuerzos, siempre acabarán por fracasar en su intento por salirse de la línea”. ¿Otro “hallazgo”? Que la capacidad y velocidad al momento de reconocer moda es directamente proporcional a la distancia con las personas que las siguen. “La fórmula tiene aplicaciones en otros fenómenos colectivos, incluido el mundo de las finanzas y de la economía”, explica el francés. “En otras palabras, encontrar un hipster verdadero es tan posible como montarse a un unicornio. Al menos, según la fórmula matemática”, resumen medios a lo largo y ancho. Y la suma da redonda.
Primero hace un breve repaso a triángulos ciertamente famosos: el triángulo de Pascal, el de Floyd con los números triangulares, el de Sierpinski, el fractal de Fibonacci, el triángulo de las Bermudas o el triángulo amoroso, que como ella misma afirma es un grafo, no un triángulo.
Pero lo más interesante de esta entrada es la explicación que hace Clara del uso de los triángulos para aproximar valores a partir de otros conocidos: de la interpolación baricéntrica a la triangulación de Delaunay. No se pierdanesta entrada porque aprenderán mucho… como siempre.
Nota: A pesar de que la autora comienza su exposición lamentando la inexistencia de canciones sobre el triángulo, sus lectores aportan un par de ejemplos en los comentarios.
Alan Turing fue un visionario y siempre creyó en que las máquinas podrían evolucionar logrando una inteligencia artificial. Para exponer su tesis de las máquinas pensantes ideó el juego de imitación, lo que hoy conocemos como el test de Turing
“Si una máquina se comporta en todos los aspectos como inteligente, entonces debe ser inteligente”. Esta premisa, y casi convicción, llevó a Alan Turing a exponer en la prestigiosa revista filosófica Mind su pensamiento ante la comunidad científica británica. Su artículo, publicado en 1950 bajo el título “Computing machinery and intelligence”, ahondaba sobre la inteligencia artificial haciéndose una sencilla y trascendental pregunta: ¿pueden las máquinas pensar?
Turing proponía en ese artículo lo que hoy se conoce como el test de Turing, y que consistía en llevar a cabo el juego de imitación. Para dicho juego es necesario un juez, ubicado en una habitación aislada, y un individuo y una máquina en otra. Ambos responderán por chat a la preguntas que les realice el interrogador. La máquina ha de hacerse pasar por un ser humano; si el juez es incapaz de distinguir entre el individuo y el ordenador, se considera entonces que la máquina ha alcanzado un determinado nivel de madurez: es inteligente.
Para Turing, la inteligencia artificial existirá cuando no seamos capaces de distinguir entre un ser humano y un programa de una computadora en una conversación a ciegas.
Pero la década de los cincuenta estaba lejos de ser una época en la que las ideas visionarias de Turing tuvieran cabida fácilmente. Tuvo que enfrentar críticas y comentarios –a los que respondía en el citado artículo– del ámbito teológico (Dios no ha dotado a los animales ni a las máquinas de alma), pero también matemático. Los colegas matemáticos dudaban de que una máquina pudiera contestar a preguntas que escaparan del sí o del no y que pudieran emular el intelecto humano.
De ELIZA a CAPTCHA
Más de diez años después del polémico artículo, un profesor emérito de informática del MIT, Joseph Weizenbaum, diseñó uno de los primeros programas en procesar lenguaje natural. ELIZA, inspirado en los postulados de Alan Turing, funcionaba buscando palabras clave en las frases escritas por el usuario y respondiendo con una frase modelo registrada en su base de datos.
Resultó tan convincente que algunas personas que interactuaron con el programa, sin saberlo, llegaron a pensar que realmente hablaban con un humano. Aunque ELIZA tenía sus límites: cuando no entendía el enunciado, repetía las palabras en forma de frases y expresiones incoherentes. Aún quedaba mucho para lograr una máquina inteligente.
En 1990 se inició el concurso Premio Loebner entre programas de ordenador que intentan pasar el test de Turing. Un juez humano se enfrenta a dos pantallas de ordenador, una de ellas se encuentra bajo el control de un ordenador, y la otra, bajo el control de un humano. El juez plantea preguntas a las dos pantallas y recibe respuestas.
El premio, que se celebra de forma anual, está dotado con 100.000 dólares para el programa que pase el test. La primera y única vez que un juez confundió a una máquina con un humano fue en el año 2010, cuando el robot Suzette, de Bruce Wilcox, superó la prueba.
Actualmente, una de las aplicaciones de la prueba de Turing más extendida es el control de spam. Este correo basura es generalmente enviado por un ordenador, así que el test de Turing puede usarse para distinguir si el remitente es humano o una máquina. El CAPTCHA, Completely Automated Public Turing test to tell Computers and Humans Apart (prueba de Turing pública y automática para diferenciar máquinas y humanos), esa conocida sucesión de números y letras, su ‘juez’ es, paradójicamente, un ordenador.
Las predicciones de Turing sobre máquinas y el juego de imitación son todavía un desafío. El matemático pensaba que en unos 50 años las máquinas jugarían tan bien que un interrogador no podría realizar la adecuada identificación tras cinco minutos de preguntas. La inteligencia artificial sería algo común y corriente.
“Creo –decía Turing– que a finales de siglo la opinión educada general se habrá modificado de tal manera que se podrá hablar de máquinas que piensan sin esperar que lo contradigan”.
Un toque de álgebra en las redes inalámbricas promete multiplicar el ancho de banda por diez, sin necesidad de añadir nuevas infraestructuras.
Un equipo de investigadores ha conseguido mejorar considerablemente el ancho de banda inalámbrico, y no lo ha hecho añadiendo estaciones, ni ocupando una porción mayor del espectro, ni aumentando los vatios del transmisor, sino usando álgebra para eliminar la tarea de reenviar paquetes perdidos de datos, una labor que suele atascar la red.
Al proporcionar a los aparatos móviles nuevas formas de enfrentarse a la falta de datos, la tecnología no solo elimina un proceso ineficaz, sino que también es capaz de combinar impecablemente flujos de datos que provienen de redes wifi y LTE, un salto adelante respecto a otros métodos que pasan de una a otra. “Cualquier red IP se beneficiará de esta tecnología”, afirma Sheau Ng, vicepresidente de investigación y desarrollo de NBC Universal. Continuar leyendo “Álgebra: Un gran avance en ancho de banda”