Búsqueda

Mostrando entradas con la etiqueta tecnología. Mostrar todas las entradas
Mostrando entradas con la etiqueta tecnología. Mostrar todas las entradas

miércoles, febrero 27, 2013

La jungla 4.0: teléfonos móviles

Carátula de la película

Hace poco pusieron en la tele la película «La jungla 4.0» (lamentable traducción del título), cuarta de la saga, imagino que para intentar aprovechar el tirón del estreno en cines de la quinta entrega. De las muchas cosas que se podrían contar, hoy me quedaré con una, relativa a los teléfonos móviles (o celulares).

Una de las cosas que hacen los malos de turno en su «ciberataque» a las infraestucturas del país, es cortar la telefonía. El agente del FBI que está al mando, pide un teléfono fijo, ya que los delincuentes habían pirateado los satélites de comunicaciones, y no funcionaban los móviles. En otro momento, cuando Bruce Willis intenta usar un teléfono celular y no funciona, el chico listo al que protege lo arregla. Según su explicación, el terminal funcionaba perféctamente. Lo que no funcionaban eran los satélites. Como los malosos podían comunicarse entre sí, deduce que ellos estaban usando satélites antiguos, y reprograma el terminal para usarlos.

Hace tiempo expliqué cómo funciona la telefonía móvil o celular. A grandes rasgos, la zona de cobertura se divide en celdas o células (de ahí el nombre de telefonía celular) donde las conocidas antenas que estamos acostumbrados a ver proporcionan cobertura. El terminal se comunica con una de estas antenas, que puede ser un simple repetidor o una estación base. Si es un repetidor, la señal se enviará a otra antena, hasta llegar a una estación base. A partir de este punto, la comunicación se realiza de la misma forma que en la telefonía fija, con varias posibilidades dependiendo de la infraestructura y la geografía, pudiendo ir por cable o por aire entre central y central (y ocasionalmente, por un satélite, sí). Dependiendo del destino, se llegará hasta una central donde esté conectado el bucle de abonado de un teléfono fijo, o hasta una estación base donde el terminal móvil esté registrado en ese momento. Lo importante de todo esto es que, en la telefonía celular, la comunicación de un termnal se realiza siempre, siempre, pero siempre, con una antena en tierra. Nunca con un satélite. Es más, habrá muchas llamadas donde la comunicación ni siquiera pase por un satélite como elemento intermedio.

Es cierto que la telefonía celular no es la única forma de telefonía móvil disponible. Existe la telefonía satelital, en la que los terminales sí que se comunican directamente con un satélite. Pero estos teléfonos son más grandes que un terminal móvil convencional, con una antena bastante visible, y muy caros. Se suelen emplear en zonas remotas donde no hay cobertura móvil u otro tipo de infraestructura de telecomunicaciones. No parece el caso de Washington DC, que es donde se desarrolla la acción en ese momento. Además, el terminal que reprograma el chico que acompaña a Bruce Willis, es un Nokia 9300, que es un teléfono celular, no satelital.

Así que lo que vemos en la película no tiene mucho sentido. Hackear solamente los satélites de comunicaciones no interrumpiría la red de telefonía móvil de un país. Sólo afectaría a algunas llamadas a muy larga distancia y a la telefonía satelital. Para colapsar la red de comunicaciones habría que hackear las centrales de telefonía. Y desde luego, por mucho que reprogrames un terminal celular, no vas a conseguir que se conecte a un satélite (ni nuevo, ni antiguo).

sábado, febrero 02, 2013

Climatización, convección y un tren frío

El de hoy va a ser un post muy peculiar, ya que voy a comentar un caso de mala ciencia aplicada en el mundo real. Lo que podríamos llamar un caso de mala ingeniería (o tal vez, mal uso de un aparato). Uso con mucha frecuencia el transporte ferroviario, concretamente una línea MD de RENFE (servicio de Media Distancia, llamado coloquial e incorrectamente «regional»). Esta servicio lo realizan trenes de la Serie 449, bastante modernos, pero que presentan una peculiaridad incómoda.

Foto de un tren serie 449 de renfe

El interior del tren está climatizado, como cabría esperar, de forma que en verano circula aire frío (a veces demasiado, pero eso es otra historia), y en invierno aire caliente. En las fechas en las que estamos, y teniendo en cuenta que a las horas a las que cojo el tren, la temperatura ambiente puede ser de unos pocos grados, o incluso estar bajo cero, el correcto funcionamiento de la climatización del tren es fundamental. Puede suponer la diferencia entre un viaje agradable, o una tortura. La cuestión es, que siempre que viajo en ese tren, la salida de aire caliente se realiza por el techo. Aunque hay unas rejillas a ras del suelo, y a veces están tibias al tacto, nunca he notado que saliera por ahí aire caliente. Es decir, para calentar el interior del vagón, sale aire caliente por la parte superior del mismo.

¿Y cuál es el problema? Pues la Ley de Charles y el Principio de Arquímedes. Supongo que a todos nos han dicho alguna vez eso de «el aire caliente sube porque pesa menos». Eso es debido a una combinación de las dos leyes mencionadas.

Por un lado, la Ley de Charles nos dice que manteniendo la presión constante, la temperatura y el volumen de un gas ideal son directamente proporcionales. Esto es, si la temperatura aumenta o disminuye, el volumen también aumenta o disminuye. Puesto que la masa no se ve afectada, y recordando que la densidad es el cociente de la masa entre el volumen, resulta que al aumentar la temperatura de un gás, aumenta el volumen, y por tanto, disminuye la densidad. Es decir, el aire caliente es menos denso que el aire frío.

Aquí entra en acción la segunda parte de nuestra ecuación: el Principio de Arquímedes. Todos recordaremos eso de «un cuerpo sumergido en un fluido, recibe un empuje vertical y hacia arriba, igual al peso del volumen del fluido que desaloja». Esto mismo se puede aplicar aunque el cuerpo sea también un fluido. Puesto que el aire caliente es menos denso que el aire frío, para un mismo volumen, el peso del aire caliente es inferior al del frío. Por tanto, el aire frío empujará al aire caliente hacia arriba.

La ascensión del aire caliente es algo que podemos apreciar en multitud de ocasiones. El humo de un cigarrillo, por ejemplo, asciende porque lo hace el aire de alrededor, calentado por la combustión del tabaco. También asciende el aire caliente alrededor de una llama, y por eso nos quemaremos si ponemos la mano encima de una vela encendida, aunque podamos acercar mucho la mano si lo hacemos por un lado. Y es también lo que hace que los globos aerostáticos de aire caliente, puedan volar.

Foto de un tren serie 449 de renfe

Ahora volvamos a nuestro tren. Tenemos una temperatura ambiente muy fría, y queremos calentar el interior de un tren. Pero para ello, inyectamos aire caliente por la zona superior. ¿Qué ocurre? Pues que el aire caliente se queda cerca del techo, mientras que el aire más cercano al suelo sigue frío. El aire en reposo es un mal conductor del calor, por lo que en una distancia relativamente corta (la altura del vagón), podemos encontrar una diferencia de temperaturas considerable. Si te pones de pie, es posible tener la cara colorada del calor, y los pies casi congelados. Nunca he comprobado empíricamente la diferencia de temperatura entre el techo y el suelo (a ver si consigo un termómetro apropiado), pero usando la rigurosa metodología de «a ojo de buen cubero», me atrevería a decir que es de más de 10 ºC.

La forma más adecuada de calentar un recinto, es inyectando el calor cerca del suelo. El aire calentado ascenderá, y el frío descenderá, calentándose a su vez. Es lo que se conoce como convección. Justo al revés que en el tren.

Como he mencionado antes, los vagones tienen unas rejillas a ras del suelo, pero por ahí nunca he notado que saliera aire caliente, más bien lo contrario (a veces, sale aire frío). Así que no sé si el problema es un mal diseño del tren, o un mal uso del climatizador por parte del operador. En cualquier caso, es una molestia considerable para los sufridos viajeros, que además acarrea un coste energético desaprovechado.

viernes, septiembre 14, 2012

Alphas: Micrófonos y megafonía

Bueno, tras una larga ausencia por las vacaciones, vuelvo por aquí. En EEUU están poniendo la segunda temporada de la serie Alphas, de la que ya comenté algo en una ocasión. El primer episodio de esta nueva temporada empieza con un robo en un supermercado por parte de unos alfas. Uno de ellos tiene el poder de aturdir a la gente con un grito, y para llegar a todo el mundo del establecimiento, utiliza uno de los micros de las cajas, de forma que el sistema de megafonía difunde su voz. No se llega a especificar qué hace exactamente el grito de ese alfa, pero la gente afectada se tapaba los oídos con expresión de dolor, y llegaba a caer al suelo.

Bueno, como ya comenté hace tiempo, cualquier sistema de transmisión, grabación o reproducción de audio, modifica en mayor o menor medida la señal original, lo que haría que el grito fuera bastante inocuo tras pasar por el sistema de megafonía.

Vamos a suponer primero que el grito del alfa es un sonido de muy alta intensidad, algo más que razonable, dado los síntomas que vemos en la escena (gente tapándose los oídos con dolor). Como sabéis, el sonido es una onda mecánica, una vibración. La intensidad de un sonido (el volumen) corresponde a la amplitud de la vibración. Si pintamos en una hoja de papel un seno (la función matemática, claro), la amplitud es la diferencia de altura entre una cresta y un valle.

Todo sistema de sonido, tiene un límite en la amplitud que soporta. Dicho límite puede ser buscado por el propio diseño, o simplemente un límite físico de sus componentes. Bien, si la señal en cuestión tiene una amplitud superior a ese límite, dicha señal es recortada, provocando una distorsión. Siguiendo con la hoja de papel, intentemos pintar un seno, pero con una amplitud tan grande que nos salgamos de los bordes del papel. Lo que queda dentro del papel es un seno con las crestas y valles recortados. Esto es lo que se conoce como saturación, y esa señal distorsionada y limitada sería lo que se transmitiría por el sistema. Fijáos que no sólo implica una distorsión del sonido original, sino una limitación al volumen del mismo. Llegado a ese límite, por mucho que aumente el volumen del sonido original, no aumentará el volumen de lo que se escuche en los altavoces.

Dos gráficos de un seno. El gráfico superior muestra una función seno normal. El gráfico superior muestra un a dunción seno con una amplitud superior al margen del dibujo, y por tanto, con los valles y crestas truncados.

Si el poder aturdidor del grito residía en su volumen, el alfa no ganaría nada usando el sistema de megafonía, puesto que el micro, el amplificador o cualquier otro elemento del sistema, se habría saturado mucho antes. Ocurre lo mismo cuando hablamos por teléfono y nuestro interlocutor está en un ambiente ruidoso y no nos oye bien. Por mucho que nos desgañitemos al hablar, él no nos escuchará con más volumen. De hecho, nos escucharía peor, pues posiblemente nuestra voz le llegaría distorsionada. Así que no gritéis al teléfono.

¿Y si no es una cuestión de intensidad? Tal vez el grito tenga determinadas frecuencias (algunas incluso inaudibles) que combinadas de forma precisa produzcan ese efecto. Bueno, en este caso os recomiendo releer uno de los posts que mencioné antes. Básicamente, salvo que estemos hablando de un sistema de alta fidelidad (y la megafonía de un súper no lo es), los distintos elementos implicados (sobre todo, el micro y los altavoces) no tienen una respuesta lineal en frecuencia. ¿Qué quiere decir eso? Pues que cada frecuencia sufrirá una amplificación algo diferente, lo que también distorsiona la señal. Además, sólo se transmite un determinado rango de frecuencias (lo que se llama, ancho de banda). Un sistema Hi-Fi está limitado al rango audible (hasta 20 KHz). La megafonía de un supermercado tendrá un rango menor. En cualquier caso, eliminamos frecuencias no audibles, y parte de las altas frecuencias audibles. Y las que no eliminamos, las alteramos.

Así que si el secreto del grito está en el uso de determinada combinación de frecuencias, tampoco es útil usar la megafonía del establecimiento. El alfa sólo debería haber afectado con su grito a los que lo estuvieran escuchando directamente.

jueves, octubre 27, 2011

Alphas: No basta con ver las ondas electromagnéticas

Hace poco, vi la primera (y única de momento) temporada de una serie llamada Alphas. Trata de unas personas con poderes sobrehumanos, a los que se denomina con el término «alfas». Los protagonisnas son un grupo de alfas (menos su lider, que es un psiquiatra sin poderes), que trabaja para el gobierno, buscando alfas descontrolados, para ayudarles o incluso pararles los pies, si son una amenaza. Salvo por el detalle de que los protagonistas trabajen para el gobierno, el planteamiento me recuerda mucho a la Patrulla X de la Marvel (cambiando el término «mutante», por el de «alfa»).

Las habilidades de los protagonistas intentan no ser demasiado fantasiosas, para poder dar algún tipo de explicación fisiológica verosímil (sin perder de vista que estamos hablando de ciencia ficción; y no, no voy a hablar de la verosimilitud de sus poderes). Uno se puede hacer muy fuerte, otro es muy ágil y tiene una puntería extraordinaria, otro tiene los sentidos superdesarrollados, otro puede sugestionar a la gente y manipularles, y el último puede ver las ondas electromagnéticas (distintas de la luz visible, claro).

Éste último, llamado Gary, es mi favorito. Se trata de un chico con cierto grado de autismo. Según nos cuentan en el primer episodio, su poder consiste simplemente en eso: ver las ondas electromagnéticas. Sin embargo, durante la serie, el personaje es capaz de escuchar conversaciones telefónicas, ver la tele, espiar correos electrónicos, pinchar cámaras de seguridad, y un sin fin de cosas, sin ningún tipo de aparato. Así que la descripción de su poder como «ver las ondas electromagnéticas» es a todas luces incompleta.

El poder «ver» o simplemente captar una señal electromagnética, no sirve de nada si no podemos interpretarla. Ya hablé alguna vez acerca de la modulación de la información a transmitir en una señal. Básicamente, la señal eléctrica que representa la información, sufre una serie de transformaciones para obtener una señal de más alta frecuencia, con un ancho de banda determinado. Existen multitud de posibilidades para ello, tanto analógicas como digitales. Por tanto, Gary ha de ser capaz de demodular en tiempo real una señal (teniendo que elegir entre distintas posibilidades de modulación), y construir una imagen mental de lo que representa. Un don ciértamente extraordinario.

Pero hay más. Las transmisiones de telefonía celular (lo que por aquí llamamos móvil) viajan cifradas. O al menos, así se hace en Europa, con el sistema GSM (imagino que en EEUU también). Además, en un área determinada puede haber muchísimos canales usándose a la vez. Y una llamada puede cambiar de canal (y por tanto de frecuencia) durante el transcurso de la misma. Gary es capaz de escuchar conversaciones telefónicas, y localizar terminales, lo que implica que debe ser capaz de localizar y aislar la señal que le interesa, diferenciándola de las demás (esto se comenta de forma explícita en un episodio), y detectando cambios de canal. Puede también interpretar y comprender el funcionamiento de los distintos protocolos de telefonía celular (en Europa sólo usamos GSM y UMTS, pero en EEUU hay más de un estándar). Además, su cerebro es capaz de romper la criptografía de esas señales, en tiempo real. Eso es algo aún más extraordinario (y por supuesto, si Gary y uno de los terminales no están en la misma celda, es simplemente imposible).

No se vayan todavía, aún hay más (no-premio para el que identifique la cita). En ocasiones, ha leído correos electrónicos ajenos y ha navegado por Internet. Eso quiere decir que es capaz, no sólo de romper la encriptación el cifrado de una red wifi, sino de transmitir él mismo algún tipo de señal. La Web funciona en el fondo de una manera muy simple: se hace una petición de un recurso, y se responde con dicho recurso. Así que Gary debe ser capaz de enviar esa petición, es decir, de generar él mismo una señal electromagnética (cifrada y modulada). Y por supuesto, es capaz de comunicarse usando el protocolo HTTP, interpretar las etiquetas HTML e instrucciones JavaScript de una página web, y entender correctamente los distintos formatos de imagen, vídeo o documentos con formatos diversos. Todo con su cabeza, y de forma instantánea.

Como colofón final, también se ha visto al personaje seguir a personas que están en la calle, de forma remota. Me pregunto hasta qué punto hay una cámara de seguridad en cada esquina de cada ciudad de EEUU, y si transmiten el vídeo por cable o de forma inalámbrica, ya que en el primer caso, Gary simplemente no puede ver la señal si no pincha dicho cable.

En fin, que el poder de este personaje no es simplemente «ver las ondas electromagnéticas» como se nos dice. En realidad tiene dos poderes distintos, que combina a la perfección: captar y enviar ondas electromagnéticas, y procesar cualquier tipo de información, por compleja que sea, saltándose todo tipo de encriptación cifrado. Comparados con él, el resto de personajes tiene poderes de poca monta.

viernes, julio 29, 2011

Primeval: Móviles en un apagón

Primeval

Primeval es una serie británica (traducida por estos lares como «Invasión jurásica»), en la que un heterogéneo grupo dependiente del gobierno debe lidiar con las llamadas «anomalías», que son una especie de agujeros en el espacio-tiempo, que se abren y cierran aleatoriamente, conectándo el presente con algúna época remota o futura (casi siempre, donde hay animales peligrosos que se cuelan por la misma).

La escena que voy a comentar es del último episodio de la última temporada (hasta ahora), así que intentaré no desvelar demasiado. Resulta que en un momento dado, se produce un apagón en toda la ciudad. No diré por qué (sería spoiler), pero no se trata de un simple corte en la red general, de forma que se pueda suponer que hay edificios e instalaciones con grupos electrógenos funcionando. No, se trata de algo más serio. Afortunadamente, los teléfonos móviles siguen funcionando, y los protagonistas pueden comunicarse entre sí, y con su centro de operaciones (aunque no sirva de mucho, con todos los ordenadores apagados).

Pero en el caso de un corte de suministro eléctrico en toda una ciudad, no sería posible establecer una comunicación mediante un teléfono móvil celular. Como expliqué hace tiempo, los terminales no son como los walkie-talkie, que establecen una comunicación de radio directamente entre ellos. No. Un terminal móvil establece siempre una conexión con lo que se denomina estación base, que podéis identificar por las conocidas torres con tres cacharros alargados en lo alto. Y si la estación base no tiene suministro eléctrico, pues no hay nada que hacer. Nuestro terminal no tendrá cobertura y será imposible realizar una llamada.

Y la conexión con la estación base se produce siempre, aunque los teléfonos estén a unos centímetros de distancia. Seguro que alguno de vosotros, cuando un amigo os pide el número de teléfono, habréis hecho eso de llamarle y colgar, dejándole una llamada perdida, para que él pueda añadir el número a su lista de contactos con unos pocas pulsaciones. Pues bien, al hacer eso, vuestro teléfono está conectándose a la estación base más cercaca. A su vez, la estación base se comunica con una central de conmutación, que es la parte «inteligente» de la red (las estaciones base son en cierta forma como simples repetidores). Tras determinar el el teléfono llamado está en la misma celda, esa comunicación vuelve a la misma estación base, y de ahí al terminal de vuestro amigo, que empezará a sonar o vibrar (todo por ahorrar 9 pulsaciones, o por no memorizar nuestro propio número).

Y ahora la sección de «¿y si...?». ¿Podrían ser teléfonos satelitales? Bueno, creo que nunca se menciona explícitamente, pero no lo parecen. Tienen pinta de ser teléfonos celulares convencionales. ¿Puede ser que las estaciones base tengan un grupo electrógeno de respaldo? No sé si en el Reino Unido es habitual o no. En cualquier caso, como dije al principio, no es un simple corte de suministro eléctrico. El centro de operaciones de los protas (CINA en la traducción, ARC en el original) también se queda sin luz, y creo que un centro de ese tipo (con muchas medidas de seguridad automáticas y animales prehistóricos enjaulados), sí que debe tener un grupo electrógeno para emergencias.

jueves, febrero 19, 2009

Teléfono móvil, con sonar de regalo

Carátula de El Caballero Oscuro

Hace poco tuve ocasión de ver (¡por fin!) la película El Caballero Oscuro. En ella había una escena que me recordó vagamente a otra que comenté hace tiempo, con un error de concepto que creo se está volviendo habitual. Al inicio de la peli, se nos muestra uno de los últimos artilugios de Batman: un teléfono móvil, convenientemente modificado para funcionar como un sonar y enviar la información obtenida a otro artilugio, donde se dibuja una vista 3D del entorno. Resulta que hacia el final de la peli (y si no la habéis visto, tal vez no queráis seguir), como último recurso para atrapar al Joker, el cruzado enmascarado revela a Lucius (su particular Q) que ha modificado todos los móviles de Gotham para convertirlos en sonares, de forma que en una enorme pared repleta de pantallas, se puede espiar prácticamente toda la ciudad.

No se nos dice exactamente cómo Batman modifica todos los móviles de la ciudad, pero no me imagino al murciélago hurtando los teléfonos uno a uno, modificándolos y luego devolviéndolos a su propietario sin que se entere. Tampoco parece posible que en el intervalo de tiempo transcurrido, Industrias Wayne haya podido hacer una mega-campaña de marketing para que todos los usuarios cambien su móvil por el nuevo modelo (con sonar oculto incorporado). Así que sólo nos queda una opción: algún tipo de virus, gusano, troyano o lo que queráis. En fin, una alteración del software del teléfono. Y eso es caer en un error que últimamente parece recurrente: utilizar software para modificar características que en realidad están ligadas al hardware.

¿Cómo funciona un sonar? Pues igual que un radar, pero utilizando sonido en vez de ondas electromagnéticas: el sonar emite ondas sonoras (audibles o no por nosotros) que se propagan y rebotan en los objetos. Analizando ese rebote o eco, se puede determinar la posición y algunas características del objeto (o del propio medio en el que se propaga en sonido). Sí, los teléfonos tienen un altavoz por el que emiten sonido (y así oímos a nuestro interlocutor); y sí, los teléfonos tienen un micrófono que captan sonido (y así, hablamos a nuestro interlocutor). Pero creo que es bastante obvio que ni el altavoz ni el micrófono están diseñados para funcionar como un sonar.

Por un lado, la idea era que no se supiera que el sonar estaba ahí, por lo que el aparato debía usar frecuencias no audibles por los humanos. Los micrófonos y altavoces están diseñados para funcionar dentro del rango de frecuencias de la voz humana, o como mucho, en el rango audible (por aquello de escuchar música con algo de calidad). ¿Y no pueden funcionar en otro rango? Veréis, un micrófono o un altavoz, no es algo que simplemente funcione para cualquier frecuencia. Existe un parámetro muy importante en electroacústica denominado respuesta en frecuencia, que nos dice cómo se comporta el dispositivo en una frecuencia concreta. Lo habitual, es que un micrófono, por ejemplo, no convierta igual de «bien» todos los sonidos. Habrá frecuencias que se atenúen más, otras menos, y otras que no se trasmitan en absoluto. De hecho, no es sencillo (o barato) conseguir que un micrófono o altavoz tenga una respuesta «plana» en el rango deseado, es decir, que para todas las frecuencias de ese rango, se comporte exactamente igual (realmente, esto no es estrictamente necesario, pero ya veis por donde van los tiros). El que haya altavoces y micrófonos baratos, y otros que cuesten un dineral, no es por capricho. Parte del coste es debido a una respuesta en frecuencia más apropiada para el uso que se le va a dar. ¿Adivináis qué tipo de altavoces y micrófonos tiene un teléfono móvil? Acertásteis.

Por otro lado, como imaginaréis, una de las características de un sonar es que emite sonido en todas direcciones, y al recibir los ecos, puede determinar la dirección de procedencia. Y eso es algo que no se puede hacer con un único micrófono. Bueno, podría hacerse, pero debería ser direccional (que capte el sonido mejor en una dirección determinada) y estar girando constantemente. Si los micrófonos no se mueven, son necesarios varios. ¿Por qué? Pues porque la forma de determinar la dirección de un sonido, es midiendo la diferencia de tiempo con la que llega a cada micrófono. El sonido se desplaza a cierta velocidad (que depende del medio), y llegará antes a un micrófono que a otro. Conociendo la disposición de los mismos, y midiendo esa diferencia, se puede calcular la dirección. De hecho, eso es algo que hace automáticamente nuestro cerebro, al procesar la información que recibe de los oídos. Así es como con pocos altavoces, un home cinema, o unos simple auriculares, pueden recrear sonidos que parecen venir de cualquier dirección. Escuchad este vídeo con unos auriculares (fundamental los auriculares, o se pierde el efecto), y resistid la tentación de volver la cabeza.

Me dejo cosas en el tintero. Entre ellas, la capacidad de cálculo que deben tener los móviles para procesar la información. O el simple hecho de enviarla al edificio de Bruce Wayne, atravesando la red de estaciones base de Gotham, ya que si no están también manipuladas de alguna forma, los pobres ciudadanos se llevarían una desagradable sorpresa en la siguiente factura de teléfono.

lunes, enero 05, 2009

Pánico en el Concorde

Este domingo pusieron en la tele una de esas cosas que denomino «cutrepelículas», y de las que tanto disfruto, titulada Pánico en el Concorde. Dado que era la hora de comer, y que mis nenes son bastante ruidosos, no me enteré demasiado de la trama, salvo el hecho de que la acción transcurría en el interior de un Concorde. Pero sí pude fijarme en algo para lo que no necesitaba conocer el argumento: el interior del avión. En la película, vemos el interior característico de un avión de pasajeros convencional, relativamente «amplio», y una cabina de piloto bastante diáfana y moderna.

Digo relativamente amplio porque, aunque los que hayáis viajado en avión podréis atestiguar que de amplitud nada, el interior de un Concorde es todavía más estrecho, casi claustrofóbico. Los asientos son más estrechos de lo habitual, distribuidos en dos filas de a dos, con un pasillo central, en clase única. La altura del techo es bastanta baja, llegando tan sólo a 1,80 m en su parte más alta, y los portaequipajes sobre los asientos son muy pequeños. Y la cabina del piloto es igualmente pequeña, hecho que se acentúa al estar repleta de aparatosos mandos e indicadores sin dejar casi un hueco, debido a que desde su puesta en funcionamiento allá por los 70, la aviónica del aparato no se ha modernizado (y ya no lo hará jamás, puesto que se han retirado del servicio todos los aparatos).

Imagen del interior de la cabina del piloto de un Concorde

El avión en sí es relativamente pequeño. Hace un año visité Disneyland Paris, y pude ver desde el exterior el Concorde que está expuesto en el aeropuerto Charles de Gaulle. Al principio creí que se trataba de un modelo a escala. Pero no, era uno de los de verdad.

Y todo esto no era por capricho ni racanería, sino por algo muy sencillo: un vuelo supersónico es muy diferente a un vuelo subsónico. El comportamiento del aire es distinto, debido sobre todo a la onda de choque producida por desplazarnos más rápido que el sonido que generamos (recordar que el sonido son variaciones de presión en el aire), y eso afecta a la forma misma del avión. Sus características alas, por ejemplo, no tienen nada que ver con las del resto de aviones comerciales, así como su morro punteagudo está muy lejos de las formas redondeadas de los morros de aquéllos.

Por otro lado, a esas velocidades la resistencia del aire es mayor (aunque el incremento no es lineal, y presenta peculiaridades, como el aumentar muchísimo cerca de Mach 1, para luego descender), por lo que es conveniente volar más alto, donde la densidad del aire es menor. Y eso implica que la diferencia entre la presión en cabina y la exterior es mayor, siendo necesaria una estructura más resistente, y la decisión de reducir el tamaño de las ventanillas en un 50% (tengo entendido que para reducir también el ritmo de descompresión en caso de una rotura). Imagino que el pequeño tamaño de las ventanillas es lo que engaña cuando uno ve un Concorde en el aire, sin ninguna otra referencia para comparar, y nos parece más grande de lo que realmente es.

Foto del interior de un Concorde, que muestra a las azafatas repartiendo el catering a los pasajeros

Como no soy un especialista en aeronáutica, podéis conocer detalles sobre el Concorde y el vuelo supersónico en el blog de Juan de la Cuerva (otra vez). Lo importante a tener en cuenta es que la problemática de diseñar un avión de pasajeros supersónico, trajo como consecuencia un aparato realmente estrecho. Podéis leer una experiencia sobre un vuelo en Concorde, en el blog GarajeKubrick.

Nada de esto aparece en la película, donde (como ya he comentado), el interior tiene la apariencia y dimensiones de un avión de pasajeros normal y corriente. La cabina del piloto también era más grande, además de moderna, con un número de aparatos más reducido.

viernes, diciembre 05, 2008

La magia informática de CSI Miami

Poster de la serie

Los que sigáis la serie «CSI: Miami» habréis comprobado que, el equipo informático del que dispone la policía de Miami está más cerca del de Minority Report que del que podamos ver en el mundo real, con gigantescas pantallas transparentes con elaboradas animaciones 3D (aunque sea para mostrar una huella dactilar). Pero ahora no voy a hablar de eso, sino de una escena del episodio de esta semana, que hizo sonar mis pequeñas alarmas de la cabeza.

En el episodio, los protas investigaban a una empresa privada de mercenarios, que recibía encargos de la administración pública (eran sospechosos de haber utilizado un arma ilegal para matar a tres traficantes de armas). El presidente (o director general, o algo similar) de la empresa es posteriormente asesinado, y los CSI recuperan su ordenador portátil, para ver qué encuentran. Mientras lo están utilizando, de pronto el disco duro comienza a borrarse (con los inevitables porcentaje y barra de progreso, que nos indican lo que queda para terminar). No pueden hacer nada para evitarlo, pero se dan cuenta que la causa es una señal exterior, que se ponen a localizar. Cuando a los pocos segundos el disco es borrado completamente, los protas han conseguido averiguar el origen de la transmisión.

Bueno, en una escena de pocos segundos ocurren varias cosas destacables. Lo primero y que seguramente llamará la atención es la imposibilidad de apagar el ordenador. Nada más fácil ya que toda máquina que funciona con electricidad necesita inevitablemente... pues eso, electricidad. Basta con interrumpir el suministro eléctrico. Y sí, estamos hablando de un portátil, y puede que tuviera batería para rato, pero entonces basta con extraerla. Bueno, vale, es el portátil de una empresa de seguridad, que se ha molestado en instalar un mecanismo para borrar datos de forma remota; tal vez esté atornillada o algo así. Pero es que los protas ni siquiera lo intentaron.

En realidad, a la hora de examinar el contenido de un disco, parece más lógico y seguro hacerlo extrayendo dicho dispositivo, y utilizar un ordenador diferente o un hardware específico para ello. De esta forma uno se evita cualquier «trampa» que pueda haber en el sistema. Comenté algo similar hace tiempo, a raíz de otro «disco trampa» en la serie Mentes Crinimales.

Otro detalle, más sutil, es la brevedad en la que se borra el disco. Como también comenté en el otro artículo, un borrado rápido convencional, en realidad no borra datos, sino que marca el espacio ocupado por los ficheros como disponibles. Los datos siguen ahí y pueden ser recuperados con el software adecuado. Para evitar esto, se debe sobreescribir lo que se pretende borrar, y esto es algo que lleva más tiempo. Además, parece que aún así, con un equipo muy especializado, es posible recuperar datos, por lo que es preferible sobreescribir varias veces, y con distintos datos basura.

Dejemos ahora el mundo de los ceros y unos, y fijémonos en cómo se activa el proceso de borrado: una señal externa (necesariamente electromagnética) que al recibirse ejecuta un programa. Obviamente el portátil debe disponer del hardware adecuado para ello, pero no puede tratarse de un simple receptor Wi-Fi, ya que la señal es transmitida desde otro punto de la ciudad. El Wi-Fi tiene un alcance bastante limitado, de varios metros (no llega al kilómetro ni de lejos), por lo que debe ser algún hardware muy específico. Pero lo importante de todo esto es que en un momento dado, mientras el CSI teclea como loco para averiguar el origen de la señal, menciona algo de una transmisión vía satélite. El diálogo es muy confuso, y la verdad, no sé si se refería a que la señal llegaba vía satélite, o a que estaba utilizando un satélite para localizarla. Bueno, en realidad no importa, ya que en ninguno de los dos casos es posible localizar la señal.

Si se referían a que la señal estaba llegando vía satélite, cualquier intento que hubieran hecho para localizar el origen de la señal habría dado como resultado... ¿lo adivináis? El satélite. Cuando se utiliza en comunicaciones, un satélite no es más que un repetidor en órbita. El emisor terreno transmite con una antena especialmente diseñada (las famosas antenas parabólicas) hacia el satélite, en determinadas frecuencias. Es satélite entonces traslada la información a otras frecuencias (para no interferir) y transmite hacia la superficie terrestre. Cualquier técnica que se nos ocurra para localizar una emisión electromagnética, dará como origen el satélite.

Si se referían a que estaban utilizando un satélite para localizar el origen de la transmisión, tampoco habrían podido. Como todos sabéis o imagináis, las emisiones de radio se atenúan con la distancia. Los satélites están en órbita alrededor de la Tierra. Muy, muy altos, del orden de cientos o miles de kilómetros de altura (concretamente, la órbita geoestacionaria, que es donde se encuentran la gran mayoría de satélites de comunicaciones, está por encima de los 35.000 km, que es más de 5 veces el radio terrestre).

¿Cómo se pueden utilizar entonces como repetidores? Bien, cuando se emite hacia un satélite, se concentra la emisión de ondas electromagnéticas en una sóla dirección (apuntándo al satélite, claro), en forma de haz. El satélite emite de forma similar, aunque abriendo un poco el haz, para abarcar una buena parte de la superficie terrestre. En las emisiones terrenas, sin embargo, o se utilizan antenas que emiten en todas direcciones, o se usan antenas con algo de direccionalidad, evitando siempre apuntar al cielo. En el primer caso, hay que pensar que el frente de onda sería algo parecido a una superficie esférica centrada en la antena, que se hace cada vez más grande. Esto que hace que la señal se atenue mucho con la distancia, debido a que cuanto más lejos, la misma potencia debe repartirse por una superficie mucho mayor (concretamente, la superficie aumenta con el cuadrado de la distancia). En el segundo caso, es obvio que si se intenta evitar transmitir hacia el cielo, un satélite no captará nada.

Como remate final, todo eso lo hacen desde el mismo portátil que está siendo manipulado desde el exterior. Es una norma de sentido común no utilizar un ordenador que está siendo comprometido. ¿Quién me asegura que además de borrar el disco, no están manipulando los datos para proporcionarme información errónea? Además, parece de sentido común que si me preocupa que los datos se vean comprometidos ante el robo del portátil, e instalo un sistema que permita borrar el disco de forma remota con una transmisión de radio, no instalaré también un sistema para rastrear dicha señal (hardware y software).

viernes, noviembre 28, 2008

El transbordador espacial Moonraker

Carátula de Moonraker

Últimamente están reponiendo en CMT varias películas de James Bond. Ayer emitieron Moonraker, de la que ya comenté algo en otra ocasión. Si recordáis el inicio de la peli, vemos como uno de los transbordadores espaciales Moonraker, es transportado en el aire por un Boeing 747. Los sicarios del villano de turno se cuelan en la lanzadera, encenden los motores principales, se desenganchan del avión (que explota al recibir el chorro de los propulsores), y se la llevan volando a algún lugar secreto. Sin embargo esto nunca podría ocurrir en realidad.

Cuando se transporta un aparato de este tipo, se hace con sus depósitos vacíos. Y por una buena razón ¿Recordáis el artículo sobre las misiones Apolo? Ahí os mencionaba que el mantra a repetir es «la masa es nuestra enemiga». Pues bien, lo mismo ocurre aquí. Lo que interesa es trasladar el transbordador, y sólo el transbordador. Sin carga ni combustible; en definitiva, sin masa innecesaria.

Bueno, uno podría pensar que el villano ha hecho los preparativos necesarios. Y aunque sería justo preguntarse cómo es que los pilotos del 747 no se dan cuenta de que el transbordador pesa más de lo que debería, en realidad tenemos otro problema.

Y es que el principal motivo por el que eso no puede ocurrir, es porque en un transbordador espacial, el combustible de los motores principales proviene únicamente del enorme tanque externo, que se desprende una vez deja de ser necesario. ¿Cómorr? ¿Entonces como maniobra y vuelve sin él? pensaréis muchos.

Foto desde atrás, del transbordador espacial Atlantis. Se pueden ver las toberas principales formando un triángulo, dos más pequeñas a los lados de la tobera central, y debajo de cada una de estas dos, otras dos más pequeñas.

Bueno, el famoso transbordador espacial tiene varios sistemas de propulsión. Por un lado tenemos los motores principales, llamados SSME (de Space Shuttle Main Engines), cuya salida de gases son las conocidas tres toberas que tiene en la cola. Como he mencionado, el SSME extrae el combustible únicamente del tanque externo, y sólo se utiliza para despegar y poner la nave en órbita.

Por otro lado tenemos el sistema de maniobra orbital, abreviado OMS (de Orbital Maneuvering System). El OMS es el encargado de propulsar la nave una vez está en órbita, ya sea para alterar ésta, o para abandonarla (y comenzar la reentrada). La salida de gases del OMS son dos toberas situadas también en la cola, pero más pequeñas que las del SSME, montadas a los lados de la tobera central de éste (en unos módulos que parecen «chepas»). Son fácilmente visibles si miráis detenidamente una imagen de la cola del transbordador.

Finalmente tenemos el sistema de control a reacción, abreviado RCS (de Reaction Control System), que consiste en varios propulsores pequeñitos, situados en el morro y la cola (junto a los del OMS), y proporciona al transbordador la capacidad de rotar sobre sus tres ejes. Fijaos que tanto el SSME como el OMS, únicamente proporcionan empuje hacia delante, por lo que es necesario un sistema que haga girar el aparato, ya que en el espacio los alerones son inútiles al no haber aire (bueno, en realidad, las toberas del SSME pueden variar un poco su inclinación, pero además de ineficientes para hacer girar la nave, recordad que no están operativos sin el tanque externo).

Foto que muestra el morro de un transbordador, donde se aprecian claramente unas pequeñas aberturas

Bien, así que vemos que los motores principales (que son los que claramente se encienden en la peli) no pueden usarse sin el tanque externo. Nuevamente uno podría pensar que las Moonraker podrían tener un diseño algo diferente al del transbordador de la NASA, y que los SSME de ellas podrían alimentarse también de tanques internos. Pero aparentemente no hay ningún motivo para ello (aunque las Moonraker las fabricaba el villano de la peli, el robo de una de ellas no formaba parte de su plan maestro, siendo algo ejecutado a posteriori tras detectar un problema, como le cuenta él mismo a Bond, en la clásica escena de «villano megalómano cuenta su plan maestro al héroe capturado»). Además, tendríamos otro problema más.

Contra lo que podrían pensar muchos, el transbordador espacial no está diseñado para volar en la atmósfera, sino para realizar un descenso controlado. Tras la reentrada, el transbordador no utiliza ningún propulsor (de hecho, quema el combustible sobrante para evitar si inflamación accidental), simplemente planea durante su descenso. Y «eso no es volar, es caer con estilo» (no-premio para el que identifique la cita).

Ciertamente, el hecho de que pueda planear, nos indica que con propulsión adecuada, podría volar. Pero por el propio diseño y propósito del transbordador, el gasto de combustible sería enorme. Existen dos parámetros en aeronáutica llamados rendimiento aerodinámico y coeficiente de planeo (no sé si los términos en castellano son así ¿hay algún aeronauta en la sala?). El rendimiento aerodinámico es la relación entre la sustentación (la fuerza hacia arriba) y el empuje (la fuerza que proporciona el motor), y el coeficiente de planeo es la relación entre la distancia horizontal recorrida por un planeador y la distancia vertical descendida. Resulta que aunque son conceptos diferentes, numéricamente son iguales. Así, un aparato con un coeficiente de 10 (por ejemplo), necesita un empuje igual a 1/10 de su peso para mantenerse en el aire, y si no tiene propulsión y planeara, recorrería 10 m por cada metro que descendiera. Estos parámetros, como es fácil comprender, dependen de entre otras cosas, de la velocidad del vehículo, de su inclinación y de la posición de sus superficies móviles.

Foto del Columbia planeando

Bien, como el transbordador espacial está diseñado principalmente para vuelos orbitales, y no para volar, su coeficiente de planeo no es muy grande, oscilando entre 1 durante la reentrada y 4,5 al aterrizar. Comparadlo con el de un 747 a velocidad de crucero, que es de 17, o el del desaparecido concorde, que es de 7, también a velocidad de crucero (durante el aterrizaje disminuye hasta 4,35, algo menor que el del transbordador). Así, en el mejor de los casos, habría que proporcionar un empuje equivalente a algo menos de la cuarta parte de su peso. Y eso supondría un gasto enorme de combustible. Combustible que habría que meter en algún sitio, sin que el personal de tierra y los pilotos del avión lo noten. Y eso suponiendo que la Moonraker tenga un diseño poco convencional y pueda alimentar el SSME sin tanque externo.

En fin, no se puede decir que sea físicamente imposible, pero como veis, es bastante improbable.

viernes, junio 06, 2008

El Windows «Táctil»

Hace pocos días, Microsoft anunció una de las novedades de la nueva versión de Windows, realizando una demostración con una pantalla «multi-touch». Como es habitual en noticias relacionadas con la informática, la mayoría de los medios no han entendido bien qué es lo novedoso (y qué no). Así, podemos leer titulares como «Windows 7 será táctil», «La próxima versión del sistema operativo Windows permitirá funciones táctiles», o «El próximo Windows 2007 funcionará con pantallas táctiles». ¿Y cuál es el problema? Pues que el hecho de que Windows o cualquier otro sistema operativo, pueda funcionar con pantallas táctiles, dista mucho de ser una novedad. Lo novedoso es que soportará lo que se denomina multi-touch (que podríamos traducir como «multi-tacto»).

Las pantallas táctiles aparecieron hace ya bastante tiempo. Seguro que muchos de vosotros las habéis visto y utilizado en determinados museos o exposiciones, o simplemente en el Metro de Madrid (las máquinas expendedoras). Para que una aplicación o un sistema operativo pueda utilizar una pantalla de este tipo, no es necesario hacer nada en el programa, específico para ese dispositivo (salvo diseñar una apariencia amigable). Por norma general, una aplicación (el sistema operativo en realidad) no se comunica directamente con el hardware, sino que para ello se utilizan los llamados «drivers» o controladores. Estos controladores son pequeñas piezas de software que proporcionan a la aplicación que los utiliza, un interfaz determinado. La idea es que no importa la marca del dispositivo(un disco, un DVD, un ratón), o cómo esté fabricado, o cómo funcione internamente, sino que el controlador se encarga de proporcionar a la aplicación un interfaz conocido. Así, la aplicación no necesita estar preparada para las peculiaridades de cada aparato.

Pensad por ejemplo en un coche. Independientemente de cómo esté hecho el motor, o la electrónica, tendrá un volante en el asiento del conductor, así como un pedal para acelerar y otro para frenar. Tenemos un interfaz entre el coche y el conductor, que aparece en todos los modelos y marcas.

Otro ejemplo lo tenemos en los ordenadores portátiles. Aunque les podemos conectar un ratón, todos tienen su propio dispositivo que cumple la misma función, como un pequeño botoncito en medio del teclado o una pequeña superficie táctil. El sistema operativo tendrá instalado el driver adecuado, de forma que no sabe (ni necesita saber) qué es lo que está actuando exactamente como ratón. Podríamos incluso inventarnos un nuevo dispositivo, como un mando similar al de la Wii, programando un driver que traduzca la información de movimiento del mismo, a la esperable de un ratón. Nuestro sistema operativo no necesitaría ningún tipo de actualización (salvo la instalación del driver, claro).

He elegido el ejemplo del ratón de forma deliberada. Imaginad que tenemos una pantalla táctil, y que el fabricante nos proporciona un driver adecuado, de forma que nuestros toques en la pantalla se traduzcan en «clicks» de ratón (en realidad, serían eventos de pulsar y soltar el botón, según apoyemos y levantemos el dedo, pero dejemos los detalles). Como podréis imaginar, el sistema operativo no tiene que estar implementado de forma especial. De hecho, mi primer trabajo consistió en hacer una pequeña aplicación de ventana completa, que sería utilizada con una pantalla táctil. Se ejecutaba en Windows 95 (cómo pasa el tiempo), y durante todo el desarrollo y las pruebas, utilicé un PC normal y corriente. Sólo en la última fase se instaló en un PC con pantalla táctil, y no fue necesario hacer nada, salvo instalar correctamente el driver de la pantalla.

Las pantallas táctiles convencionales, tienen una limitación, y es que sólo funcionan correctamente si las tocamos con un sólo dedo cada vez. Si las tocamos con dos o más dedos simultáneamente, tendremos efectos no deseados, posiblemente que el puntero se posicione en algún punto indeterminado entre los dedos. El motivo es evidente: independientemente de que la tecnología de la pantalla permita la detección precisa de varios toques simultáneos (puesto que hay pantallas que directamente no son capaces de ello), debemos traducir la información a las coordenadas de un único puntero (la flechita que movemos por la pantalla, a la que se en ocasiones se le llama también ratón, de forma errónea). Y es aquí donde está realmente la novedad. Si disponemos de una pantalla multi-touch, capaz de detectar la posición de toques simultáneos, y queremos que esa capacidad sirva para algo, no podemos simplemente traducirla a eventos de ratón. Necesitamos que nuestro sistema operativo haga algo diiferente. Y ahí está la novedad de la nueva versión de Windows: el soporte multi-touch, para poder hacer las virguerías del famoso iPod Touch de Apple, como tocar con dos dedos sobre una foto, y separarlos o juntarlos, para aumentar o disminuir su tamaño.

Es decir, no es ninguna novedad que Windows se pueda utilizar con una pantalla táctil. Eso ya se podía hacer desde hacía una década. La novedad es que se pueda utilizar con pantallas multi-touch.

jueves, abril 17, 2008

Un poco más sobre URLs

En el artículo anterior, uno de vosotros me animó a explicar el resto de cosas que puede tener una URL, y que no mencioné por no extenderme demasiado (con lo visto, ya era suficiente para ver la diferencia entre una URL y una dirección IP). Así que, vamos a ello.

Había explicado que una URL, en el caso más genérico, identifica un recurso en la red. Siendo más específicos, podemos decir que entre otras cosas, identifica un fichero en un ordenador. La URL nos dice también cómo acceder al recurso, es decir, qué protocolo utilizar. Nos quedamos con tres elementos básicos de la URL: el protocolo (lo que va antes de «://»), la máquina (identificada por su dirección IP o por su nombre de dominio), el puerto (tras «:», aparentemente opcional, aunque implícito si no aparece), y el recurso (tras el siguiente «/», también opcional, aunque se configura un recurso por defecto).

Fijaos que intento evitar la palabra «fichero» y referirme siempre a «recursos». Esto es porque no todos los recursos son ficheros. Pensemos en un buscador cualquiera (como Google, por ejemplo). Uno introduce sus palabras de búsqueda, y tras pulsar la tecla «Enter» o clicar el botón correspondiente, vamos a la siguiente página, que es una lista de resultados. Imagino que no pensaréis que dichas páginas existen en forma de ficheros en los servidores de Google, Yahoo, o el que sea, y que cientos de currantes han creado todas las páginas posibles, para todas las combinaciones de palabras posibles. Es obvio que algún programa genera en ese momento la página que vemos, y que ésta no tiene existencia real en ningún disco duro (salvo en alguna caché). Fijaos también que en este caso, en la página con la lista de resultados, la URL que vemos en la cajita de direcciones es muy larga, con símbolos «raros», y que aparecen las palabras que habéis tecleado.

Bien, eso es otro fragmento que puede aparecer en la URL, y que se denomina «query string» (que podríamos traducir como «cadena de consulta»). Esta «query string» aparece tras la ruta, precedida del símbolo de interrogación de cierre «?». Habitualmente (sobre todo en el caso de HTTP), consiste en parejas de tipo «nombre=valor» separados por el símbolo «&», donde «nombre» sería el nombre de un parámetro, y «valor» su valor. Si buscáis algo en Google, por ejemplo, veréis que la URL de la página de resultados comienza por «http://www.google.es/search» (si estáis en España, si no, el sufijo será diferente, como «.com», «.mx», «.ar», etc.), tras lo cual sigue la interrogación, y luego la «query string». En ella podemos observar un parámetro llamado «q», con los términos de búsqueda. Fijaos que los espacios en blanco han sido sustituidos por el símbolo de sumar «+», y que algunos caracteres (como eñes o vocales acentuadas) han sido sustituidos por una misteriosa secuencia de símbolos de porcentaje («%») seguidos de letras o números. Esto es porque en una URL no puede aparecer cualquier caracter, por lo que si queremos transmitir algún parámetro con uno de estos caracteres «prohibidos», hay que transformarlos (y el servidor, se ocupa de recuperarlos nuevamente).

Un recurso también puede ser un fragmento de otro recurso (por ejemplo, una sección en una página HTML). Para identificar un fragmento de un recurso, se coloca el caracter «#» al final de la URL (que identifica el recurso «padre»), seguido del identificador del fragmento. Si váis a cualquier artículo más o menos completo de la Wikipedia (por ejemplo, el relativo a URL), veréis que tras una breve introducción aparece una tabla de contenidos, consistente en varios enlaces. Estos enlaces llevan a secciones de la propia página, y si ponéis el puntero sobre ellos, veréis que la URL es la misma que la de la página, pero seguida del caracter «#» y un nombre. Si clicais sobre cualquiera de ellos, os desplazaréis por la página sin que ésta se recargue.

Finalmente, hay otro elemento que puede aparecer en una URL, pero esta vez, delante del identificador de la máquina (tras el «://»). Un recurso puede estar protegido, y sólo ser accesible a determinados usuarios, de forma que necesitamos autenticarnos. Si intentamos acceder a un recurso de este estilo mediante nuestro navegador, y la autenticación se realiza mediante nombre de usuario y contraseña, nos aparecerá una pequeña ventanita pidiendo dichos datos (ventanita que pinta el propio navegador, no la página, por lo que su apariencia varía de un navegador a otro, y es consistente con la de éste y la plataforma). En las aplicaciones web no es habitual, ya que la autenticación suele hacerse mediante un formulario HTML, integrado estéticamente en el diseño de la página. Sin embargo es algo que se puede hacer, y que sí es muy habitual en el caso de utilizar FTP. Si queremos, podemos evitar que aparezca la ventanita, añadiendo el nombre de usuario y la contraseña en la propia URL. Para ello, justo después del «://» se coloca el nombre de usuario, deguido del caracter de dos puntos («:»), la contraseña, el caracter arroba («@») y finalmente el resto de la URL (máquina, puerto, etc.). Así, nos quedaría algo de este tipo: «http://usuario:contraseña@dominio.com/recurso».

Como la contraseña aparecerá en la URL, y puede que no queramos que sea tan visible (y que quede guardada en algún registro de direcciones accedidas), podemos no ponerla, y utilizar sólo el nombre de usuario. En este caso, tras el nombre de usuario iría directamente la arroba, y luego el resto de la URL. El navegador nos mostrará igualmente la ventanita, pero con el nombre de usuario ya puesto, aunque esto ya depende del navegador: Opera lo hace así, Firefox muestra la ventana sin rellenar (al menos, en la versión 2), y Explorer, directamente no soporta añadir usuario y contraseña a la URL (al menos, en la versión 6).

Llegados a este punto, no puedo evitar mencionar una curiosidad sobre la arroba (que también es una antigua unidad de masa). Os habréis dado cuenta que la forma «usuario@dominio» es igual que la utilizada para una dirección de correo electrónico. Esta misma sintaxis se utiliza para otros protocolos y aplicaciones (como el telnet). Y es que en inglés, al simbolito en cuestión se le denomina «at», que dependiendo del contexto se puede traducir como «en» o «a». Por tanto, «fulanito@gmail.com» (por ejemplo), se puede leer como «fulanito en gmail.com». ¿A que ahora tiene más sentido lo de la arroba? Dejo a los filólogos e historiadores, el cómo surgió dicho simbolito, y cómo adquirió distintos significados.

jueves, abril 10, 2008

URLs y direcciones IP

Hace varias semanas, recibí un correo electrónico comentándome un detalle de un episodio de la serie de TV Life, que trata de un policía reintegrado en el servicio, tras pasar 14 años en prisión por error. En el episodio en cuestión, los protagonistas deben localizar a una chica (víctima de una violación, y que no había denunciado a su agresor) que solía conectarse mucho a Internet. Entre ellos se produce el siguiente diálogo (gracias JM):

—Ojala las personas tuviesen GPS.

—Los ordenadores lo tienen.

—¿En serio?

—Sí. Se conectaba a estas páginas desde su ordenador. Si no se ha desecho de él, podemos averiguar cual era su URL y localizarlo.

Aquí hay un error de concepto importante, ya que parece que se está confundiendo una URL con una dirección IP. ¿El qué? Bueno, empezaremos explicando qué es una URL.

Una URL es literalmente un localizador uniforme de recursos (Uniform Resource Locator). ¡Ah! ¿Y eso qué es?. Pues se trata de una serie de caracteres que se utilizan como nombre de un recurso en Internet (como páginas, imágenes, vídeos) y que además nos proporciona su localización en la red. ¿Ein? Bueno, hablando llanamente, es lo que aparece en la «caja de direcciones» de vuestro navegador, lo que tecleáis para acceder a un sitio.

Cada «trozo» de la URL (sí, aunque sean siglas de «localizador...», en castellano se suele utilizar el género femenino) tiene un significado concreto. Las letras que hay antes del «://» identifican el protocolo a utilizar, normalmente «http» o «https» (para los protocolos HTTP y HTTPS), aunque podéis encontrar otras cosas, como «ftp» (para el viejo amigo FTP) o «file» (para acceder al sistema de ficheros local; si utilizáis Windows, teclead «file:///C:/» y veréis). Lo que viene después del «://» nos dice dónde está lo que queremos. En el caso de un protocolo de red como HTTP, lo que viene es el identificador de la máquina (o máquinas, ya que pueden ser varios ordenadores trabajando conjuntamente), que normalmente es el nombre de dominio de la misma, aunque también puede ponerse su dirección IP (ya iremos a lo que es). Por ejemplo, para acceder a este vuestro blog, ponéis en la barra de direcciones lo siguiente: http://www.malaciencia.info.

Opcionalmente, para protocolos de red, se pueden poner el caracter de dos puntos («:») seguido de un número, que identifica un puerto. ¿Un puerto? Sí. Veréis, un ordenador puede ofercer varios servicios simultaneamente, a través de distintos protocolos (o a través del mismo, pero en procesos diferentes). Para diferenciar las peticiones a uno u otro servicio, existe el concepto de puerto, que viene a ser un canal de comunicaciones identificado por un número. Así, para diferenciar las peticiones a uno u otro servicio en el mismo ordenador, se utiliza el número de puerto. De hecho, toda comunicación de red se realiza a través de un puerto, lo que ocurre es que cada protocolo tiene un puerto asociado por defecto, de forma que si no se pone, la aplicación asume que se usa dicho valor por defecto. En el caso del protocolo HTTP es el puerto 80, de forma que es lo mismo poner http://www.malaciencia.info que http://www.malaciencia.info:80.

Tras el servidor y el puerto, puede aparecer una ruta hacia un recurso concreto (una página HTML, una imagen...). Por ejemplo, si colocáis el puntero sobre el «enlace permanente» de este artículo (al final del mismo), veréis que tras «malaciencia.info» aparece una ruta similar a la de un sistema de ficheros. Esa ruta identifica un recurso concreto dentro del servicio (en este caso, un fichero HTML). Al igual que antes, siempre debería ser necesaria esta información, lo que ocurre es que la mayoría de los sitios web tienen configurado un recurso por defecto, de forma que si no se especifica uno concreto, se utiliza dicho recurso (normalmente, la página de inicio).

Opcionalmente, pueden ir más cosas detrás de la ruta, pero de momento nos quedaremos aquí. Lo importante es darse cuenta de que una URL identifica básicamente un documento en una máquina (o en varias), que los hace públicos mediante algún servicio. Y eso sólo ocurre en servidores. El usuario medio, rara vez configurará su ordenador como servidor (al menos, de forma consciente). Es decir, en un ordenador que sólo se utilice para navegar por Internet, y no tenga funcionando un servicio HTTP, FTP, o similar (por ejemplo, si queremos que nuestro sitio web se ejecute en nuestro propio ordenador, en vez de buscar un alojamiento), no tiene ningún sentido hablar de URLs.

Por el contrario, una dirección IP sí que identifica un ordenador (o más genéricamente, una máquina, como por ejemplo, un router o una impresora). Se trata simplemente de un número de 4 bytes, y se suele representar como cuatro números entre 0 y 255, separados por puntos («.»). Su función es muy parecida a la de un número de teléfono. Para establecer una comunicación, hay que conocer la dirección IP de la máquina destino, y generalmente, entre los datos que se intercambian, se encuentran las direcciones IP de ambos extremos.

Antes mencioné que en la URL, puede aparecer un nombre o una dirección IP. Para evitar que la gente deba memorizar listas de números, se utilizan los nombres de dominio. Esos nombres son lo que realmente utilizáis y memorizáis (por ejemplo, «malaciencia.info», «google.com», «wikipedia.org», etc). Pero como los protocolos de red sólo entienden de direcciones IP, existen unos servidores especiales llamados DNS que funcionan como bases de datos, y que nos dice qué dirección IP corresponde a cada nombre de dominio.

Vemos por tanto que a lo que realmente se referían los protagonistas, es a la dirección IP del ordenador de la chica, no a la URL, que no tiene sentido. Una dirección IP identifica una máquina, mientras que una URL identifica un recurso concreto (un fichero) en esa máquina.

Y hay más. Una única dirección IP, no se corresponde necesariamente con una única máquina. En el caso de un usuario normal, que se conecte a Internet mediante un proveedor, puede que cada vez se le asigne una IP diferente, y puede que su IP esté siendo utilizada por más clientes. En estos casos, hay que conocer la fecha y hora de la conexión, para que el proveedor de servicios nos proporcione la información deseada (mediante la orden judicial correspondiente). Además, lo único que puede hacer éste, es darnos los datos que el cliente le haya proporcionado, que puede que no se correspondan con la ubicación física real del ordenador. La dirección IP sólo es un identificador, como un DNI o un número de teléfono. En este aspecto, la analogía con el GPS es totalmente incorrecta. Si deseamos conocer la ubicación física del ordenador, habría que ir «más abajo», y pedir la información a la compañía que mantenga la infraestructura telefónica si el acceso es por modem o ADSL, o a la que mantenga la infraestructura de cable (y que no tiene por qué ser la misma que la compañía que nos da el servicio de acceso a Internet).

La identificación del proveedor es sencilla, ya que existen organismos públicos que gestionan quién tiene qué direcciones (porque nuestra dirección IP, pertenece al proveedor), y dependiendo de aquél, puede que podamos disponer de forma rápida de información geográfica limitada, como el país, provincia o incluso la ciudad, a la que corresponde la IP (depende de cómo administre las direcciones el proveedor). Hay incluso sitios en la red donde se puede consultar toda esta información, y «contadores de clicks» que hacen estadísticas con los orígenes de los mismos (así puedo saber, por ejemplo, que aunque la mayoría de vosotros estáis en España, hay visitantes de México, Argentina, e incluso de Japón).

Estamos dando por sentado que la dirección IP se puede obtener sin problemas. Bueno, es muy fácil saber qué dirección IP se está utilizando para conectarse a un servicio nuestro. Pero en el caso que nos ocupa, se trata de obtener la dirección IP de conexiones de hace tiempo. Para ello necesitamos que el proveedor de servicios de internet, o el administrador de la web a la que se haya accedido, guarde un registro con dicha información (hace poco, hubo polémica con una ley, o intento de ley, o similar, que obligada a guardar esta información varios años). Además, necesitamos saber las fechas y horas en las que la persona que buscamos haya accedido a determinados sitios (o bien, que la información guardada incluya cosas como datos de autenticación, cosa que también es controvertida).

Una dificultad añadida podría ser obtener la dirección IP real del ordenador. Veréis, en muchos casos, el acceso se realiza a través de lo que se denomina proxy (literalmente, «representante», en inglés), que consiste básicamente en un «intermediario». Dependiendo de la tecnología y sistema utilizado, una posible consecuencia es que la dirección IP que vea el otro extremo (el administrador de la web) no sea la que tenemos nosotros en realidad.

Lo gracioso de todo este asunto, es que según me cuentan en el correo, la chica que buscaban se había mudado, después de frecuentar la red. Y aquí, o la portera del antiguo domicilio sabe algo, o no hay nada que hacer.

jueves, enero 24, 2008

Baterías y el efecto memoria

Cuando nos compramos un teléfono móvil, un ordenador portátil, una cámara digital o cualquier aparato con una batería recargable, inevitablemente el vendedor nos da el mismo consejo: hay que descargar totalmente la batería antes de cada recarga. Y como nos lo dice el que nos vende el aparato, pues le creemos. Y sin embargo, esto no es del todo cierto.

Antes de explicar por qué, vamos a ver un poco por encima cómo funciona una batería química y recargable. Una batería está compuesta por lo que se denominan células. Una célula consiste básicamente en un recipiente con dos materiales en su interior (electrodos), separados físicamente por otro material que permite contacto eléctrico entre ellos (electrolito). Las reacciones químicas de su interior producen un exceso de electrones en un electrodo (el polo negativo), y una ausencia de ellos en el otro (el polo positivo). Si unimos ambos extremos mediante un circuito, los electrones circularán desde el polo negativo al positivo, y tendremos una corriente eléctrica. En algunos casos, las reacciones son reversibles aplicando una corriente externa en sentido opuesto. Tenemos entonces una célula recargable, que podemos cargar y descargar varias veces.

Una pila pequeña de toda la vida (las típicas AA o AAA) está formada por una sóla célula (y además, muchas son no recargables). Sin embargo, las baterías de los dispositivos que he mencionado al principio, están formadas por más de una célula.

Básicamente existen tres tipos de baterías comercializadas para estos aparatos: de niquel-cadmio (Ni-Cd), de niquel-hidruro metálico (Ni-MH) y de iones de Litio (Li-Ion). Cada una de ellas tiene características diferentes, debido precisamente a su composición y reacciones químicas que se producen.

Las baterías Ni-Cd son las más antiguas de las tres. Tienen el llamado efecto memoria, que es la causa de que se recomiende descargar completamente la batería. Este efecto consiste en que la batería parece «recordar» el nivel de carga que tenía cuando se comienza a recargar, de forma que al utilizarse nuevamente, sólo se descarga hasta dicho nivel, disminuyendo obviamente su tiempo de uso. Sin embargo, esto no sucede cada vez que se carga una batería que no ha sido descargada totalmente. Para que aparezca el efecto memoria, la batería debe descargarse varias veces consecutivas hasta un mismo nivel (por ejemplo, al 50% de su carga). Aún así, es recomendable hacer descargas completas con cierta frecuencia, pero teniendo en cuenta que no es necesario hacerlo todas las veces (eso puede incluso acortar la vida de las baterías).

Y cuando digo descargar totalmente, no me refiero a quitarle hasta el último electrón, sino descargarla con su uso normal. Como he comentado antes, una batería tiene varias células. En un mundo ideal, las células serían totalmente idénticas, con idéntica carga, y se descargarían al mismo ritmo. Pero en el mundo real, es normal que alguna célula se descargue antes que otra. Si una célula es completamente descargada, sus vecinas aún tienen carga, y se sigue extrayendo corriente, la célula descargada se ve atravesada por la corriente de sus vecinas, deteriorándose. Si la célula queda inutilizada, habremos perdido su capacidad de carga, y por tanto, la batería en su totalidad tendrá menos capacidad.

Afortunadamente, los circuitos de los aparatos alimentados por estas baterías, están diseñados para evitar esto. Aunque las células mantienen más o menos el mismo voltaje exterior, a medida que se descargan, inevitablemente disminuye algo. En el caso de que una célula se descarge completamente, el voltaje total de la batería disminuye de forma más apreciable, por lo que se puede interrumpir el circuito al detectar un nivel de voltaje por debajo de determinado valor, deteniendo la descarga. Pero si utilizamos algún otro medio para descargarla, como conectándola a un simple circuito casero con una pequeña resistencia (una bombilla o un LED, para así saber si sigue circulando corriente o no), puede producirse el efecto antes mencionado, dañando nuestra batería. Por eso es preferible descargarla con el uso normal del aparato. Fijáos que en este caso, la batería perderá capacidad, y un usuario podría pensar que no la descarga lo suficiente en cada ciclo, cuando en realidad es justo al contrario.

De hecho, la causa física del efecto memoria, es la formación de unos cristales que hacen que el voltaje de algunas células disminuyan bruscamente antes de descargarse del todo. La circuitería externa detectará la caída de voltaje, y considerará que la batería se ha descargado, interrumpiendo el circuito.

Las baterías Ni-MH son más modernas que las Ni-Cd, y aunque también sufren el efecto memoria, este es menor. Lo dicho para las Ni-Cd es igualmente aplicable para estas.

Las baterías Li-Ion son las más modernas, y estas sí que no sufren el efecto memoria. Es más, el agotar estas baterías de forma completa antes de cada recarga, puede acortar su vida útil, por lo que lejos de ser una práctica recomendable, es algo que hay que evitar. Eso no quiere decir que no se pueda «apurar» la batería. De hecho, es conveniente descargarla completamente de vez en cuando (una vez al mes, por ejemplo).

Una cosa de la que no nos suele avisar el vendedor, y que es dañino para las baterías, es la sobrecarga. Uno puede pensar que cargando la batería más tiempo del necesario, se puede «ganar carga extra». Sin embargo, las sobrecargas continuadas también dañan nuestra batería, formando otra vez esos cristales en su interior, y produciendo el dichoso efecto memoria. Si el cargador es bueno, puede interrumpir la carga al detectar que la batería está completamente cargada, y evitar este problema.

¿Cómo sé qué batería utiliza mi aparato? Normalmente deberían venir en la propia batería, o en el manual (ese que nunca leemos). Así, si la batería es de Li-Ion (cada vez más usadas), no intentéis descargarla siempre hasta el final.

Para los curiosos y hambrientos de saber, os dejo una lista de enlaces sobre el tema:

miércoles, diciembre 12, 2007

CSI y RFID

En el episodio de CSI: NY de esta semana, los protas detienen una dependiente de una joyería y a su cómplice, que cometían fraude con tarjetas de crédito. Para ello, escondido en un bolso que la dependiente enseñaba al cliente, había un lector RFID que leía a distancia la tarjeta de crédito de aquél. Sin embargo, esto no siempre es posible.

¿Qué es eso del RFID? Bueno, RFID son las siglas en inglés de Identificación por Radiofrecuencia (Radio Frequency IDentification). Es un sistema en el cual se utilizan unas etiquetas y un lector de las mismas. Las etiquetas son pequeños traspondedores, que cuando reciben una determinada señal de radio, emiten otra como respuesta, en la que viaja información de la etiqueta (normalmente, un código de identificación). Tal vez alguna vez os hayáis fijado en una extraña pegatina que llevan, por ejemplo, los libros que se compran en algunos centros comerciales. Pues bien, eso es una etiqueta RFID.

Primer plano de una etiqueta RFID con forma cuadrada

Supongo que si alguna vez la habéis observado bien, os preguntaréis cómo es posible que algo tan pequeño pueda emitir señal alguna. ¿Dónde está la pila o la batería? Pues no tiene. Veréis, se trata de etiquetas pasivas, y no tienen ningún tipo de fuente de alimentación. Utilizan la propia señal que reciben del aparato que «pregunta», para alimentarse. ¿Cómo? Bueno, resulta que en todo conductor inmerso en un campo electromagnético variable, se inducen corrientes eléctricas. Así es como funcionan las antenas, y las etiquetas RFID no son ninguna excepción. La corriente inducida es muy pequeña, pero suficiente para alimentar el circuito de la etiqueta, especialmente diseñado para ello. Hay otros dos tipos de etiquetas, las activas, que sí que tienen su propia fuente de alimentación (como los aparatos utilizados en el pago automático de peajes de autopistas), y las semipasivas, que también tienen una fuente propia, pero muy pequeña y que únicamente se utiliza para alimentar el chip (para emitir la señal, se utilizan las corrientes inducidas por la señal recibida).

¿Y esto qué tiene que ver con las tarjetas de crédito? Pues poco o mucho, depende de la tarjeta. La mayoría de tarjetas de crédito que habréis visto, son de banda magnética. Esa banda negra que se encuentra en el dorso, tiene almacenada la información necesaria, en forma de distintas orientaciones de las partículas magnéticas de la banda, como ocurría en las viejas casetes de audio o VHS (demonios, de pronto siento el paso del tiempo). Una banda magnética es imposible de leer con un lector RFID, por motivos obvios. La banda magnética no tiene antena ni circuitería para hacer nada. Para leerla hay que deslizarla por un lector magnético adecuado, como la famosa ranura que tienen los TPV de las tiendas.

Detalle de una tarjeta de crédito que muestra el característico cuadrado de contactos dorados

Otro tipo de tarjetas de crédito, son las tarjetas inteligentes de contacto. Éstas llevan un pequeño chip, accesible desde el exterior mediante una serie de contactos, cuyo conjunto tiene forma de pequeño cuadrado redondeado, con líneas en su interior. Las viejas tarjetas de prepago de las cabinas telefónicas públicas, eran de este tipo (como alguien diga que no sabe de qué estoy hablando, me deprimo del todo). El chip puede simplemente proporcionar una información fija, o realizar operaciones con los datos de entrada. Nuevamente es imposible hacer nada con un lector RFID sobre estas tarjetas, ya que el chip no está diseñado para eso. Para operar con él, el lector debe tener también unos contactos, que tocan físicamente los contactos de la tarjeta, cuando ésta es introducida en el lector. La verdad es que aquí en España, no parecen estar muy extendidas en el ámbito específico de tarjetas de crédito (sí las he visto como monederos electrónicos, o tarjetas de identificación).

Y finalmente tenemos las tarjetas de crédito RFID. Estas sí pueden (y deben) ser leídas por un lector RFID. Desconozco si en EEUU están tan extendidas como las de banda magnética (aquí no), pero en cualquier caso, es evidente ver que únicamente este tipo de tarjetas son vulnerables al fraude que nos enseñan en la serie. En el episodio, sin embargo, se nos da a entender que vale para cualquier tarjeta de crédito.

Lo cierto es que hay mucha polémica sobre la aplicación de RFID en determinado ámbitos, como puede ser el DNI electrónico o tarjetas de pago (sean de débito o de crédito), precisamente por eso, por la posibilidad de que el chip sea leído sin que nos demos cuenta. Basta con que un moderno carterista con un lector RFID «tropiece» con nosotros, de forma que el lector se acerque lo suficiente al chip. Aunque obviamente, dependiendo del ámbito de aplicación, se toman distintas medidas de seguridad, como pueden ser la criptografía o la protección mediante un PIN.

miércoles, octubre 10, 2007

Ampliando imágenes (III)

Ya he comentado en un par de ocasiones la dificultad de ampliar una imagen más allá de su resolución original. Normalmente no suelo repetirme, pero en el episodio de esta semana de CSI: NY, se superan a sí mismos, y merece ser mencionado. Veamos, en el episodio, hay dos crímenes sin relación, pero en edificios contiguos. Resulta que en el primer crimen, uno de los elementos de la investigación es un vídeo grabado de forma oculta, con la cámara de un teléfono móvil, y que podría ser el móvil del crimen (valga el juego de palabras). El vídeo se centra en una chica, casi en primer plano, y de fondo se atisba el edificio donde se comete el segundo crimen. Cuando la encargada de dicho caso se da cuenta, se pone a analizar la grabación. Tras un proceso que sólo podemos calificar de «mágico», obtiene un vídeo de la ventana donde se comete el segundo crimen, donde puede ver perfectamente a la asesina. La resolución es perfecta, y la cámara está fija, a pesar de que la grabación se hizo desde un móvil, sujeto por una persona, y con otros elementos delante.

Aquí se mezclan varios elementos, que hacen que en el mundo real, esto nunca pueda ocurrir. Por un lado, tenemos el nivel de detalle del vídeo. Creo que todos sabemos más o menos la baja calidad de un vídeo hecho por un móvil. Además de la baja calidad de la óptica del aparato, lo más importante aquí es la baja resolución. Como comenté en aquellas dos ocasiones, no se puede aumentar el nivel de detalle más allá de la resolución original. Se pueden interpolar datos para que la apariencia no sea tan pixelada, pero estaremos «inventando» datos. Como dije entonces, «de donde no hay, no se puede sacar».

Pero además, tenemos otro factor importante: el movimiento de la cámara. El vídeo estaba tomado por una chica, que tenía oculto el móvil en la ropa (o en un bolso). La chica se movía, y efectivamente, cuando vemos el vídeo completo, comprobamos que la cámara se mueve. Si alguna vez habéis grabado vídeo con zoom, habréis comprobado que cuanto mayor es el nivel de zoom, más difícil es mantener la imagen fija, si sujetamos la cámara con una mano. Un leve movimiento, se traduce en un enorme desplazamiento en la imagen. Eso es debido a que cuando ampliamos la imagen, no estamos acercando la cámara al objeto de nuestra grabación, sino únicamente aumentando el tamaño de una zona de la imagen. Y al hacerlo, también aumentan lógicamente los pequeños desplazamientos debidos a movimientos de la cámara.

En fin, me gustaría saber qué clase de tratamiento de imagen puede obtener a partir de un vídeo movido de baja resolución, una ampliación a cámara fija, de alta definición.

Y ya que hablo de CSI: NY, no quiero terminar sin mostrar mi indignación por la eliminación injustificada por parte de Tele 5, de los créditos iniciales de la serie. Y es que tras el teaser del episodio (esos primeros segundos antes de los créditos), cortan y se saltan los créditos de inicio, para ir directamente a la continuación del mismo. Ya me molesta cuando lo hacen en una serie, al emitir dos episodios seguidos (sólo ponen los créditos del primer episodio). Pero es que en este caso no tiene ningún sentido. ¿O es que en T5 no saben que CSI: Miami y CSI: NY son dos series diferentes?

miércoles, septiembre 26, 2007

Jericho: soldando componentes electrónicos

Hace unas semanas dediqué un artículo a la serie Jericho. Hoy volvemos a ella, aunque para detallar un error sutil, que posiblemente haya pasado desapercibido para muchos, salvo para los que alguna vez hemos tenido que soldar algún circuito. En uno de los episodios, unos supuestos marines llegan al pueblo, con promesas de comida y ayuda. Como tienen la radio estropeada, uno de ellos (una, en realidad) pide ayuda al prota y se van a arreglarla. Así, asistimos a un diálogo entre la chica y el prota, mientras ella empuña un soldador y una placa de circuito impreso, y se dedica a soldar aquí y allá.

Fotograma del episodio, que muestra una chica on un soldador en una mano, aplicándolo sobre algo que sujeta con la otra mano, mientras mira hacia otro lado

El problema es que sólo utiliza eso: un soldador. ¿Y? Pues que le falta un elemento adicional: estaño de soldar. Veamos, cuando se quieren soldar componentes electrónicos, cables finos, o cualquier elemento en un circuito de baja potencia, no se funde directamente el metal de lo que queremos unir, sino que se utiliza el mal llamado «estaño de soldar». Y digo mal llamado, porque en realidad no es estaño, sino una aleación de estaño y plomo, con alma de resina. Esta aleación tiene un punto de fusión bastante bajo (las hay por debajo de los 200 ºC) y es el metal que forma realmente la soldadura. Para ello, acercamos el soldador y el estaño al punto que queremos soldar, el estaño se funde cubriendo la zona de unión, y retiramos el soldador (y el resto del estaño no utilizado) para dejar que la soldadura se enfríe.

El estaño es imprescindible para soldaduras de este tipo, ya que si no, nos veríamos obligados a fundir directamente el metal de las patas de los componentes. Y eso es algo que por un lado nos destrozaría el componente, al tener que elevar la temperatura mucho más (el punto de fusión del metal de las patas no es tan bajo), y por otro sería impracticable, ya que el soldador no podría proporcionar suficiente calor para ello.

Otro detalle muy importante es que para este tipo de soldaduras, hay que estar atento a lo que se hace. Hay componentes electrónicos que son muy sensibles a la temperatura, y pueden estropearse con facilidad si dejamos aplicado el soldador demasiado tiempo. Las patillas de los componentes son metálicas, y por tanto, buenas conductoras térmicas, por lo que en poco tiempo (segundos) la temperatura del componente comienza a elevarse. Y si lo hace demasiado, simplemente nos lo cargamos (lo sé por experiencia). Para evitar esto, se puede recurrir a una pinza metálica colocada en las patas donde se realiza la soldadura. Así, la pinza absorbe parte del calor, y el interior del componente se calienta menos.

Sin embargo, en la serie, la chica habla despreocupadamente con el prota, dejando en ocasiones el soldador apoyado sobre el circuito durante demasiado tiempo, mientras mira a su interlocutor. A menos que estuviese soldando únicamente cables (y no parecía el caso, pues era una placa de circuito impreso), esa manera de soldar es una forma segura de quemar algún componente.

miércoles, enero 25, 2006

Móvil con llamadas gratuítas

Carátula de The CoreHablando de Juegos de Guerra en el anterior envío, mediante ese raro mecanismo de asociar ideas, me vino a la cabeza una absurda secuencia de The Core. De entrada, no veréis la relación, pero cuando explique el origen del error, lo comprenderéis.

Empecemos describiendo la escena. En The Core, uno de los personajes que va a salvar el mundo es un supuesto hacker, enfermizamente estereotipado: esmirriado, con gafas, feo, engreído... en fin. Al principio de la peli, para demostrar todo lo que sabe y lo listo que es, dobla un papel de aluminio (creo recordar que era el envoltorio de un chicle) hasta conseguir que emita un zumbido al soplar a través de él. Le quita el movil al prota, hace sonar el papel junto al aparato, y se lo devuelve a su legítimo propietario diciendo que a partir de ahora, todas sus llamadas serán gratis, para siempre.

Bueno, creo que la escena es tan ridícula que no hace falta explicar que eso es imposible. ¿Alguien podría realmente xplicar cómo mediante un determinado sonido, un móvil queda eternamente configurado para que las llamadas sean gratis? Es más ¿se puede conseguir que un móvil se comporte así, o más bien depende de la tarjeta?

Así que de lo que realmente voy a hablar es de cómo puede ocurrírsele a alguien semejante disparate. La explicación más lógica es que el guionista (además de estar bajo efectos de sustancias alucionógenas) haya oído hablar del phreaking. ¿El qué? El phreaking es una contracción de phone (teléfono) y freak (friki, a falta de una mejor traducción) y se refiere básicamente al "cacharreo" de sistemas telefónicos. Como el hacking, pero en versión telefónica, vamos.

El caso más conocido, y que muchos consideran como el inicio del phreaking (aunque hay quien lo sitúa mucho antes) sucedió en EEUU, allá por los 60. Resulta que la AT&T, comenzó a automatizar las llamadas a larga distancia unos años antes (las famosas "conferencias", como las llamábamos aquí), de forma que se pudiera marcar directamente el número deseado, sin tener que hablar con una operadora. Al hacerlo, tuvo la mala idea de meter la señalización en la misma banda que la voz, en forma de pitidos audibles. Esto quiere decir que si uno conocía cómo funcionaba internamente la red telefónica, y qué frecuencias correspondían a qué señales, podía alterar el comportamiento de una llamada, simplemente mediante pitidos o silbidos sobre el micrófono.

La AT&T cometió otro error, y fue el publicar toda la información relativa a las frecuencias utilizadas en la señalización. Con esta información, uno podía generar señales falsas mediante pitidos, y "engañar" a la red. Así, se popularizaron entre la comunidad phreak, las llamadas blue boxes (literalmente, cajas azules), que eran unos cacharros con un teclado que generaban los tonos necesarios.

Lo interesante de todo esto es que había un tercer error en el sistema telefónico. Existía un tono para "liberar" una línea en una llamada a larga distancia, de forma que al recibirlo, el sistema consideraba que la línea ya no estaba siendo utilizada. Pero la línea seguía en realidad utilizable mientras no se colgara físicamente el aparato. Así que un phreak sólo tenía que inicar una llamada, emitir ese tono para "cancelarla", utilzar su blue box para marcar otra vez, y ya tenía una llamada de la que no había constancia y no se cobraría.

Como anécdota resulta que ese tono era de 2.600 Hz, que era la misma frecuencia que emitía un silbato que regalaban en aquel entonces al comprar una caja de cereales Cap'n Crunch. Así que simplemente haciando sonar el silbato junto al micrófono del teléfono (tras marcar), tenías una línea abierta, pero que la compañía telefónica creía que no se estaba utilizando.

Conociendo esta historia, uno deduce que fue de ahí de donde el guionista sacó la ridícula idea de piratear un móvil con un silbato de papel. Pero hoy en día, eso no tiene ningún sentido. Hace ya tiempo que se utiliza señalización fuera de banda: es decir, la información relativa a la señalización viaja en un canal distinto al de la voz (salvo la marcación). Pero además, en el mundo digital, lo que se transmiten realmente son bits, no sonidos. Aquí sí que no tiene absolutamente ningún sentido el generar tonos externos (es decir, con un silbato sobre el micro). No conseguirías nada. Y no digamos ya el hacer que los efectos sean permanentes para un determinado teléfono.

Y ahora es cuando el más avispado se preguntará "¿Y esto qué demonios tiene que ver con Juegos de Guerra?". Bueno, en esta peli, el protagonista utiliza alguna técnica para llamar gratis por teléfono. Recordaréis una escena al principio, en la que el tío deja en marcha un programita para marcar con su módem a una serie de números de teléfono, buscando el tono de otro módem. Cuando su novia le pregunta qué opina su padre sobre la factura telefónica, él le contesta que hay formas de hacerlo sin pagar.

Y es que durante un tiempo, el mundo phreak y hacker estuvo bastante mezclado. Los mismos Steve Wozniak y Steve Jobs eran phreaks, cuando crearon su primer Apple I en un garaje y fundaron Apple Computer.

lunes, enero 23, 2006

Reventando claves

Carátula de la primera temporada de AliasEste fin de semana, al disfrutar de la serie Alias, vi una escena que por desgracia se ha convertido en un tópico, y que no se corresponde con la realidad. Resulta que unos tipos, con Quentin Tarantino a la cabeza, asaltan el SD-6 e intentan abrir la cámara acorazada. La cámara en cuestión tiene la típica cerradura electrónica protegida por un código de varios dígitos. Los asaltantes utilizan un aparato para descubrir la clave, que se conecta de alguna manera a la cerradura electrónica, y entre otras cosas tiene una pantallita donde vemos pasar números a toda velocidad. De pronto, uno de los dígitos se detiene ante la exclamación "¡ya tengo el primero!". Tras un rato, otro dígito se congela, y así, poco a poco, en cada posición va apareciendo un dígito concreto, mientras en las restantes seguimos viendo pasar los números a toda velocidad. Finalmente, al detenerse el último numerito, los asaltantes ya tienen la clave para teclear en el teclado numérico, y abrir la cámara.

Carátula de Juegos de GuerraComo digo, este tipo de secuencias se ha convertido en un tópico a la hora de mostrarnos cómo obtener la clave de acceso a algo. Creo que el origen de este topicazo está en la película Juegos de Guerra, en la que el super ordenador WOPR, Joshua para los amigos, utiliza el mismo sistema para descubrir los códigos de lanzamiento de misiles nucleares. Al menos, es la primera vez que lo vi en una película.

Pero las cosas no son así en la realidad. Esta secuencia nos muestra lo que en criptografía se conoce como un ataque de fuerza bruta. Consiste en ir probando sucesivamente todas las combinaciones posibles, hasta dar con la correcta. Poniendo un ejemplo sencillo (que nunca funcionaría en el mundo real, por otros motivos que luego comentaré), si quisieramos descubrir el PIN de una tarjeta bancaria, la introduciríamos en un cajero automático y probaríamos todas las combinaciones posibles entre 0000 y 9999 (que son 10.000). Tarde o temprano, daríamos con la clave.

Pero cualquier tipo de clave o contraseña, o es correcta o es incorecta en su totalidad. Es decir, a base de probar combinaciones, yo no puedo saber nunca si unos dígitos son correctos y otros no. O descubro la clave completa, o no sé nada. El realizar numerosos intentos no me da ningún tipo de información que me permita discernir si en determinada posición va determinado dígito. Sólo cuando consiga acertar con la clave, sabré cuál es. Pero hasta entonces, no tendré ni una sola pista, salvo el hecho de que las claves que ya he probado no son correctas, lógicamente.

Además, la mayoría de las veces, este tipo de escenas incurre en otro error. Cuando sólo queda un dígito por descubrir, vemos en la pantalla todos los dígitos quietos menos uno, que sigue mostrando números distintos a toda velocidad durante un buen rato. Con un poco de sentido común nos daremos cuenta de que si sólo falta un dígito, sólo hay que realizar 10 intentos más. Y eso se hace en un santiamén.

Antes he dicho que el ejemplo de la tarjeta y el cajero no funcionaría en el mundo real. Eso es porque siempre que se pueda, conviene tener un sistema adicional de seguridad que impide los ataques por fuerza bruta. Es algo tan simple como limitar el número de intentos. En el caso de un cajero automático, al tercer intento fallido, el cajero cancela la operación y no te devuelve la tarjeta. El mismo sistema tienen los teléfonos móviles, que al tercer error introduciendo el PIN, bloquea la tarjeta SIM, y sólo se puede desbloquear introduciendo el PUK, un número bastante más largo, que por norma general, casi nadie recuerda. Pero además, al décimo intento fallido de introducir el PUK, la tarjeta se bloquea definitivamente, y no hay más remedio que hablar con el proveedor.

La verdad, parece algo raro que una organización como el SD-6 no tenga un sistema similar, aunque eso ya no es malaciencia, sino simplemente falta de previsión. Yo, en vez de tener varios explosivos para volar el edificio si se abre la cámara (algo bastante excesivo), simplemente bloquearía el sistema durante un tiempo (unas horas). O tal vez cerraría la puerta de acceso a la estancia donde está el teclado numérico, atrapando a los que intentaran violar el sistema, y la dejaría así durante unas horas. Está claro que los villanos de series y películas necesitan sin falta estudiarse el Manual del Perfecto Tirano.