jueves, 20 de junio de 2013

Comunicaciones seguras: clave pública y privacidad

Hoy con Internet todo está al alcance; compras, operaciones bancarias, trámites administrativos, intercambio de información o conversaciones en tiempo real.
Cada vez que realizamos una de estas operaciones enviamos al ciberespacio información privada. Y lo hacemos con seguridad gracias a la criptografía de clave pública, que entra en escena cuando nos conectamos a Internet, usamos un cajero automático o compramos un programa de televisión por pay per view.

En sentido estricto la criptografía es la ciencia que se encarga de la ocultación del significado de un mensaje para mantenerlo en secreto. Proteger el mensaje como ente físico es tarea de otra ciencia secreta : la esteganografía.
Desde que hace 2000 años se emplease por primera vez la criptografía, su principal limitación había sido la distribución de la clave, la "llave" que permite al emisor sellar el mensaje y al receptor abrirlo. Esto exige que ambas partes busquen un sistema muy seguro para realizar el intercambio.
Con el sistema de clave pública ya no es necesario intercambiar la clave secreta. Cada usuario tiene una clave pública y otra privada.
Si Alicia quiere mandarle una carta confidencial a Benito, primero le pide a él que le mande un candado abierto. Caudno Alicia lo recibe, lo usa para cerrar una caja que lelva dentro la carta y le manda la caja por correo a Benito. Él es el único que puede abrirla, pues es el único que tiene la llave (clave privada) que abre su candado (clave pública).
Para el comercio electrónico y protección de datos en España hay dos normas que regulan los derechos y deberes de los internautas:
* Ley de Servicios de la Seguridad de la Información (LSSI), de 2002, que se aplica al comercio electrónico, la publicidad y cualquier servicio por Internet que se dé beneficios económicos.

* Ley Orgánica de Protección de Datos de Carácter Personal (LOPD), de 1999, que se aplica a las empresas y entidades públicas que dispongan de datos personales de los ciudadanos.
Si pasamos de la analogía postal a Internet, una de las aplicaciones de la criptografía de la clave pública es el cifrado de datos para ocultar información privada. Otra es revelar la identidad del emisor de un mensaje. Esto se consigue con las firmas digitales que se almacenan en el nuevo DNI electrónico: quien manda un documento con una firma hecha con su clave privada se asegura de que cualquier destinatario que conozca su clave pública pueda comprobar que el documento es auténtico, que la firma no ha sido falsificada.
Las direcciones que empiezan con https y con un candado indican que una web usa un protocolo criptográfico de cifrado de datos que permite comunicaciones seguras. Nunca envías datos confidenciales si no ves estas señales.

Teléfono móvil: cuestiones celulares


De ser pesadas maletas los móviles han pasado a ser pequeños objetos que caben en cualquier bolsillo. Ya hay más teléfonos móviles que fijos, en América, no son tan populares, los móviles se llaman "celulares".
Los primeros teléfonos portátiles se instalaban en los coches y se comunicaban con un potente transmisor central que cubría un radio de hasta 70 km alrededor de cada gran ciudad. Para poder hablar con la central los teléfonos debían emitir con mucha potencia, la suficiente como para recorrer esos 70 km, de ahí se tamaño y la necesidad de una gran batería.
Entonces llegó la estrategia celular: dividir la zona de cobertura en células mucho más pequeñas, en cuyo centro se instala una antena. Las células de la red de telefonía están coordinadas de manera que la conexión no se corta al pasar de una a otra y el móvil cambia solo de canal.

Si queremos reducir la potencia de emisión de los móviles, se tiene que instalar muchas antenas, para que siempre tengamos una cerca, y así el celular requeriría menos potencias.
Hasta ahora no hay ninguna evidencia científica de que las radiaciones empleadas en la telefonía móvil puedan causar ninguna enfermedad. Estas ondas no son muy diferentes a las de la radio. Tienen algo más de energía, se las considera microondas y están en una zona del espectro electromagnético muy por debajo de los rayos de luz visibles.
Los rayos ultravioletas de alta frecuencia, los rayos gammas y los rayos X pueden provocar problemas de salud, son capaces de romper moléculas y desencadenar el cáncer. Sin embargo, las microondas que originan los móviles son incapaces de romper enlaces entre átomos; por eso la ciencia actual no entiende cómo estas ondas podrían llegar a provocar un tumor. El único riesgo probado para la salud es usar los móviles mientras se conduce.

GPS: la brújula del siglo XXI


El Sistema de Posicionamiento Global (GPS) nació en 1995 como una red de satélites de apoyo a la navegación marítima que permite conocer en todo momento y en cualquier condición meteorológica las tres coordenadas (latitud, longitud, altitud) que localizan un punto sobre la Tierra.
El GPS resolvió el problema de la necesidad de conocer la posición de un barco en alta mar de forma definitiva, usando una versión sofisticada de la técnica de triangulación.  Para triangular, el GPS usa tres referencias móviles de una "constelación" de 24 satélites que giran a 20.200 km de altura. Aunque reconocer la ubicación exacta tiene gran utilidad militar, por eso el Departamento de Defensa de Estados Unidos, introdujo un error controlado de unos pocos de metros en la señal pública del GPS, pero esto no es un problema para los GPS de los coches.

En los navegadores para vehículos, la localización aparece como indicador sobre un mapa de carreteras. Pueden aparecer gasolineras, zonas de velocidad reducida, radares, etc. Estos puntos de interés (PDI) están grabados en una base de datos que puede actualizarse por Internet. Además calcula la mejor ruta, aunque no es posible localizar a nadie solo a través de un navegador. También sirve para evitar atascos y errores al calcular las rutas.

Satélite: ciencia ficción hecha realidad


Arthur C. Clarke en 1945, publicó un artículo científico titulado "Repetidores extraterrestres". En este artículo Clarke proponía el uso de satélites como repetidores para que las emisoras de televisión pudieran tener una cobertura mundial. Entonces solo existían los satélites naturales: las lunas.
En 1957 los soviéticos pusieron en órbita el primer satélite artificial, el Sputnik I. Por la competencia que EE.UU tenia con Rusia, hizo que los norteamericanos pensaran en satélites de comunicaciones que diesen la vuelta a la Tierra cada 24h, como dijo Clarke. Si además su órbita se sitúa sobre el ecuador, entonces esos satélites se ven desde la tierra siempre en el mismo punto del cielo, con la gran ventaja de que las antenas parabólicas que apuntan hacia ellos pueden estar fijas.
Un satélite tiene que estar a una altura de 35.786 km para mantenerse en esa órbita geoestacionaria y girar con la misma velocidad con la que rota la Tierra.
El 20 de julio de 1969, 500 millones de personas de todo el mundo siguieron en directo la retransmisión de los primeros pasos de un ser humano sobre la Luna, gracias a que pocos días antes se había completado el primer sistema global de comunicaciones por satélite.

Como homenaje hoy se conoce como "órbita Clarke", a la órbita geostacionaria en la que circulan también satélites meteorológicos, de comunicaciones y militares, pero no los de localización por GPS.
Google Earth cambina imágenes de la Tierra obtenidas desde satélites con fotografías aéreas y con representaciones en 3D de datos de información geográfica. Esta última tecnología, la de los Sistemas de Información Geográfica (GIS), representan bases de datos sobre mapas digitales cuyo análisis tiene múltiples aplicaciones.

Compartir la propiedad intelectual


Antes llevar miles de canciones en el bolsillo parecía un sueño imposible, hoy se puede gracias al MP3.
La industria musical ha cambiado por la revolución iniciada en Internet por los amantes de la música. Las tecnologías que han hecho posible el cambio son la digitalización y la comprensión.

Digitalización: digitalizar sonido o vídeo tiene una gran ventaja: cada copia es un clon idéntico al original, mientras que con cada copia sucesiva de una cinta analógica se pierde calidad.
Para guardar un texto en un ordenador basta con traducir letras a bytes usando el código ASCII.
No es tan fácil convertir el sonido (analógico) en una ristra digital. La señal analógica es una onda continua, que vemos como una curva. Al convertirla a digital lo que hacemos es tratar de reproducir esa curva con barras verticales que representan muestras de audio tomadas cada cierto tiempo. Cuantas más muestras haya por segundo y cuanto más precisa sea cada muestra, la versión digital será más fiel a la analógica.
Los CD de música almacenan las canciones en archivos con estos parámetros y sin comprimir.

Comprensión: pero esos archivos son muy grandes, así, en un CD de 700 megabytes caben 80 minutos de música. La solución fue el MP3, un formato comprimido de música digital que descarta los sonidos que el oído humano medio no puede percibir y los que no se oyen cuando suenan al mismo tiempo otros.
El algoritmo de MP3 consigue reducir 11 veces el tamaño del archivo y mantiene casi la misma calidad de sonido de un CD.
En 1998 un estudiante universitario de 18 años creó Napster, un programa de intercambio de archivos basado en la tecnología P2P (peer-to-peer), cuyo significado es "comunicación entre iguales".
En Internet los ordenadores se comunican por lo general a través de servidores centrales: para compartir un archivo, un usuario tendría que subirlo a un servidor y otro descargarlo de allí. Con el P2P pueden enviarse los archivos directamente.
Esto abrió la vía de compartir a escala global, incluso material protegido con cpyright, lo que abrió una batalla legal y las discografías consiguieron que los jueces cerraran Napster.
Pero surgieron nuevas redes P2P como aDonkey, BitTorrent o Ares. Las redes P2P están cambiando las reglas de la televisión mucho más que la transición a la TDT.

Almacenamiento digital de la información

La forma más cómoda de llevar información es el llavero de memoria (pen drive).

En su interior hay un chip, formado por multitud de celdas que funcionan como diminutos interruptores con dos posiciones: on y off, que equivalen a 0 y 1 en sistema binario. Así, cada casilla almacena un bit de memoria. Un bit es la cantidad mínima de información, pero es muy raro verlos en solitario. En nuestro ordenadores, los bits están agrupados en octetos llamados bytes.

Con los 8 bits de un byte pueden representarse 256 valores en sistema binario. Y con estos 256 caracteres diferentes, los occidentales tenemos más que suficiente para escribir cualquier cosa. El código ASCII se usa para almacenar documentos de texto en la memoria y en los discos. El código ASCII traduce en un solo carácter cada uno de los 356 posibles valores binarios de un byte.
Los ordenadores, teléfonos,navegadores GPS, iPods, etc., son artistas del puntililsmo. En sus pantallas, una imagen es un cuadro de diminutos puntos llamados píxeles. El realismo de la imágen depende de la cantidad de información usada para colorear cada píxel. Lo mínimo es 1 bit por píxel: dos colores, blanco y negro. Con 1 byte podemos representar 256 tonos diferentes para cada píxel y eso es suficiente para visualizar una fotografía. Si queremos ver la foto en color necesitamos 3 bytes por píxel, uno para cada color primario, así tenemos 256 posibles tonos para cada uno.

Para visualizar ymandar fotos por Internet se suelen guardar en JPG, un formato que comprime el tamaño del archivo entre 10 y 20 veces con una pérdida de calidad aceptable, usando un complejo algoritmo.
También se pueden perder datos al comprimir música en MP3 o películas en DivX: estos formatos descartan información redundante. En cambio, para documentos de textos se usan formatos de compresión sin pérdida de datos, como el ZIP.

Ordenador: problemas complejos, decisiones simples

Nos preguntamos si ya los ordenadores pueden pensar y si han superado a su creador, el cerebro humano. Pero la diferencia sigue siendo la misma, el cerebro es mucho más complejo. El ordenador resuelve el problema dividiéndolo en tareas más simples, pero un ordenador hace mucho más que ordenar. La palabra ordenador viene del francés ordinateur que es la traducción del inglés computer, que es el nombre de los especialistas en hacer cálculos numéricos.
En 1936, Alan Turing, pensó en una computadora que lograría resolver todo tipo de problemas que pudiera traducirse en términos matemáticos y luego reducirse a una cadena de operaciones lógicas con números binarios en las que solo cabían dos decisiones: verdadero o falso. Así había nacido el ordenador digital. Tras la 2ª Guerra Mundial, Turing creó uno de los primeros ordenadores como los actuales, digital y también programable: podía usarse para muchas cosas con solo cambiar el programa.
Los ordenadores han seguido duplicando su potencia de cálculo cada año y medio. Por muy rápido que sea ahora un PC, para usarlo todavía hay que esperar cerca de un minuto mientras arranca.
Turing creía que los ordenadores sí podían llegar a pensar y, con el programa adecuado, hacer cosas como chatear sin que pudiéramos distinguir si nuestro interlocutor era una persona o un ordenador, Test de Turing.

Con 40 años Turing había abierto el campo de la Inteligencia Artificial, pero fue condenado y para evitar la cárcel se sometió a un tratamiento hormonal. 2 años después murió tras morder una manzana envenenada con cianuro, una marca de ordenadores adoptó como símbolo una manzana arco iris como homenaje.

Chatbot es un programa que está diseñado para simular una conversación inteligente con humanos. Pero nungino lo hace tan bien como para superar el test de Turing.
http://www.cleverbot.com/
El software de los ordenadores es el manual de instrucciones que permite convertir un problema, una tarea, en una gran cantidad de operaciones matemáticas sencillas, que se calculan a gran velocidad. Los programas y juegos están en el primer eslabón de esa cadena: convierte nuestras acciones y deseos en tareas aún muy complejas que realiza el sistema operativo.

Algunos programas necesitan funciones que no tienen el sistema y se le añaden instalando más bibliotecas o unos módulos llamados plug-ins.
Las funciones del sistema o las añadidas convierten cada tarea en una larguísima serie de instrucciones que son específicas para el hardware.

El sistema operativo se relaciona con los dispositivos anteriores a través de otro software, los controladores. Esta estructura encadenada hace que un programa pueda ejecutar sin problemas en muchos ordenadores distintos, pero compatibles. El software aparece como algo casi independiente del hardware. La cadena de instrucciones sigue dentro de los dispositivos y periféricos del ordenador. Cada uno de esos contiene un pequeño ordenador que controla sus motores y circuitos electrónicos mediante otro programa tan ligado a los componente electrónicos, firmware. Ya un ordenador, gracias a programa de minería de datos, que analizan múltiples variables y sus relaciones, pueden tomar decisiones, y sus decisiones son más acertadas.

Los navegantes tejen la red


Cualquiera puede publicar información en Internet y llegar a todo el mundo sin ser un experto en nuevas tecnologías ni dominar el lenguaje HTML, gracias a los blogs. El blog es un tipo de página web en la que uno o varios autores escriben de forma periódica sobre temas de su interés y donde los lectores pueden dejar sus comentarios. Los blogs tienen el poder de difundir y hacer relevante una información, aparezca o no en los periódicos.
Hay sistemas que ayudan a formar blog mejor, como fotologs y podcasts, que usan las mismas tecnologías para difundir fotos y archivos de sonido o vídeo. Otros servicios desarrollaron nuevas maneras de compartir y organizar los contenidos, flickr. En cada vídeo de YouTube aparecen otros vídeos relacionados. Con eso y con la facilidad para poder incrustar los vídeos en otras páginas y blogs. Servicios como MySpace y Facebook combinan todas las posibilidades anteriores y crean redes sociales.
Wikipedia es una enciclopedia que permite que cualquier usuario pueda añadir y modificar sus contenidos desde su navegador web. Nació en 2001 y en solo 6 meses se convirtió en la mayor enciclopedia que haya existido nunca. Tiene pocos trabajadores y en ella colaboran millones de voluntarios de todo el mundo. En 2007 la Wikipedia se convirtió en la décima web más visitada.
En 2006 la conocida revista Time te nombró a ti, internauta, persona del año.
Se debió a que 2006 fue el año en el que las nuevas webs, creadas o mejoradas gracias a la colaboración de los propios usuarios, las webs 2.0, empezaron a superar en visitas a las webs tradicionales.

Google: el algoritmo que lo busca todo


Google es el principal buscador de Internet, lo que empezó en un garaje de SiliconValley, como tantas otras aventuras tecnológicas, es hoy la gigantesca empresa que gestiona más información, pública y privada, en todo el mundo. Google fue un proyecto de investigación de dos estudiantes. En 1996, en plena eclosión de Internet, el número de webs se multiplicaba, por lo que encontrar la información se convirtió en casi imposible. Larry Page y Sergey Brin, plantearon una hipótesis: una página es más importante cuantos más enlaces apunten hacia ella. Así los primeros resultados de una búsqueda debían ser las páginas más enlazadas desde otras páginas relevantes. Los detalles de cómo Google determina eso están en un complejo algoritmo (una serie definida, ordenada y finita de operaciones que nos permite realizar una acción), una fórmula patentada con el nombre de PageRank que se estuvo cociendo durante casi dos años.
Google Inc. nacio en septiembre de 1998, tras intentar vender Page y Brin el algoritmo y no tener mucha suerte. Y en pocos meses ya respondía a un millón de búsquedas cada día, ya en fase beta era ,uy fiable, rápido y fácil de utilizar.
Hoy en día es una potente multinacional cuyas máquinas rastrean a diario miles de millones de páginas webs, una cantidad de información abrumadora. Google para hacer su búsqueda más eficaz y personal, almacena tus búsquedas anteriores para conocer tus gustos y preferencias.
Silicon valley no aparece en Google Maps ni en ningún atlas. Se llama Silicon Valley a una zona del norte de California situada entre las ciudades de San Francisco y San José. El término Silicon Valley se debe a la alta concentración de empresas informáticas en el norte del valle de Santa Clara.
Pero con el crecimiento de esa industria en la zona, la localización geográfica ya no define Silicon Valley con tanta precisión, ejemplos de empresas son: Hewlett-Packard: Palo Alto, Apple: Los Altos, Google: Mento Park.

El google bombing es una trampa para que una página aparezca en los primeros lugares al buscar una palabra determinada. Esta técnica empezó a usarse en reivindicaciones sociales y políticas, también se usa para desacreditar a personas o promocionar productos. Aunque en 2007 los ingenieros de Google incorporaron un pequeño algoritmo para minimizar el efecto de estas bombas.

Navegador web: momentos estelares de la historia

El 13 de octubre de 1994, fue la fecha en la que se lanzó la primera versión de Netscape, el primer navegador web al alcance del gran público. Fue la "aplicación bomba" que logró extender el uso de Internet y llegó a convertirla en un fenómeno de masas. Las páginas web habían sido creadas en 1991 en el CERN, el programador británico Tim Berners-Lee ideó un sistema para que los científicos de todo el mundo pudieran compartir los resultados de sus investigaciones, publicándolos en unos documentos enlazados entre sí en una especie de telaraña mundial, World Wide Web (www). Su idea fue usar los enlaces de hipertextos (es el texto que contiene elementos) para saltar de una página a otra, pero en ella solo se podía ver texto; había que cargar aparte las imágenes, y solo funcionaba en costosas estaciones de trabajo que utilizaban sistema operativo UNIX. Hasta que Marc Andreessen tuvo la idea de que un navegador tenía que mostrar páginas con imágenes, sonidos y vídeos incrustados entre un texto con diferentes estilos y tipos de letras. Y para seguir los enlaces bastaría con un simple clic sobre una palabra subrayada. Así surgió Mosaic en 1993, el primer navegador web con interfaz gráfica disponible para Windows, Mac y UNIX. Tas el éxito, Marc Andreessen fue reclutado por un empresario de Silicon Valley donde fundaron Netscape. Era el navegador más fácil de usar y tenía mejores importantes sobre Mosaic. Las páginas se visualizaban según se iban cargando, y se podían empezar a leer sin esperar con la pantalla en blanco hasta que se cargaran el texto y las imágenes, además incluía un sistema criptográfico para poder realizar conexiones seguras por Internet.

Así millones de usuarios de todo el mundo se conectaron a la red en 1995 con Netscape. Aunque ya casi nadie usa Netscape tiene sucesores:
Firefox, es hoy el navegador más avanzado en cuestiones de privacidad y seguridad. Poco a poco ha ganado popularidad y ya es un símbolo de la cultura del software libre: es gratuito y cualquiera puede mejorarlo.

El código de programación de Firefox está basado en el de Netscape, que, tras su enorme éxito inicial, fue barrido en pocos años por Internet Explorer hasta que desapareció.

* Yahoo, en 1994 dos estudiantes de EE.UU publicaron una página con enlaces a sus sitios web favoritos. Yahoo fue el primer directorio de Internet, catalogaba las nuevas páginas y marcaba los mejores, Pero pronto esta tarea se convirtió en imposible, poruqe había muchas páginas.

En la jerga informática se les conoce como killer apps a los softwares que hacen explotar una tecnología, de manera que desarrolla sus posibilidades y multiplica las ventas del hardware que lo soporta. Si Netscape fue la aplicación bomba de Internet, otros programas convirtieron en grandes éxitos al PC, el Macintosh y a la Gameboy:

* PC (1983): las ventas del PC de IBM fueron muy flojas hasta que salió al mercado una hoja de cálculo llamada Lotus 1-2-3.


* Macintosh (1985): Aldus Pagemaker fue el primer programa de maquetación que mostraba las páginas tal cual en la pantalla. Este programa hizo que el Macintosh de Apple conquistara a los diseñadores gráficos.

* Gameboy (1989): el juego del Tetris se hizo muy popular, pero hizo un dúo imbatible con la Gameboy, la consola portátil de Nintendo.

miércoles, 19 de junio de 2013

Conexiones y velocidad de acceso a Internet

Hay varios tipos de conexiones y velocidades de acceso a Internet, son:
* Línea telefónica, que está diseñada para transmitir información analógica (voz), su velocidad máxima de descarga es de 56.600 bps.


ADSL, mediante la utilización de las líneas telefónicas de cobre es posible un acceso de banda ancha que además permite hablar por teléfono al mismo tiempo. Se necesita un módem especial y adaptar la centralita telefónica, su velocidad máxima es de entre 8 Mbps y 24 Mbps.


* Cable, los proveedores de cable tienden redes de fibra óptica bajo las calles, pero a las casas la conexión llega por cable coaxial de cobre,esta solo llega a núcleos de población importantes y la conexión más rápida es hasta 30 Mbps.

* Satélite, existen diferentes sistemas, unos reciben la información por la antena parabólica y la envían a través de una línea telefónica, pero lo ideal es bidireccional. La conexión en España es la más cara y su velocidad máxima es de 2Mbps.

* Telefonía móvil, la tecnología 3G ofrece conexión de banda ancha para los teléfonos móviles y también para los ordenadores, ya sea mediante un módem 3G o a través de un teléfono. Su velocidad máxima es de 7,2 Mbps.

Independientemente del tipo de conexión, el módem o router que contiene tecnología WiFi crea una red que permite conectar varios ordenadores sin cables desde cualquier habitación. Existen muchos puntos de acceso WiFi (hotspots) en lugares públicos como bibliotecas, cafeterías, aeropuertos, hoteles, etc. Su comodidad ha hecho que las redes inalámbricas hayan proliferado tanto que ya se habla de contaminación WiFi.

Símbolos y direcciones de Internet

La @ además de en las direcciones de correo electrónico, ya los venecianos en 1536 la usaban como abreviatura de ánfora (unidad de peso de 26,2 L.). También se utilizaba con el significado de "al precio de". Pero en 1972 saltó a la forma actual gracias a Ray Tomlison, que necesitaba un símbolo que no se usara en nombres, para hacer un separador dentro de las direcciones, por lo que números y letras eran descartados. Y optó por el @ que en inglés se lee at.

Cada ordenador en Internet se identifica por una dirección IP, del tipo: 188.40.234.3. Estos números pueden tener valores de 0 a 255, con un sistema IPv4 que da para 4.294.967.296. Se piensa que este sistema se agotará y ya se trabaja en la v6 con alcance de 3,4x10^38 posibles direcciones. Esta IP puede ser fija o ser diferente cada vez que te conectes, IP dinámica.

Aparte de las IP necesitamos más direcciones, las DNS , servidores de nombres de dominio que hacen de intérpretes entre usuarios y ordenadores. El DNS traduce la dirección a la dirección IP del servidor donde está alojada la página web que queremos visitar.

Internet: nacida oara compartir

La red es la forma de comunicarse a distancia con Internet y ordenadores. Ahora mismo sería impensable un mundo sin Internet. Esto realmente empezó cuando EE.UU financió Arpanet, red predecesora de Internet, que en 1969 hizo que se conectaran entre si los ordenadores de universidades y se compartiera información. Pero todo esto sería imposible sin un ciberespacio, que se usa como sinónimo de Internet, pero en realidad es el mundo virtual en el que existen las páginas web. No es algo material pero pesa 50 gramos.

La información que se comparte en Internet se divide en partes y recorre caminos hasta pasar del remitente al destinatario. Así si se produce un error solo se reenvían los paquetes extraviados. Estos paquetes pasan por cientos de ordenadores distintos, sin problema ya que en la red todos hablan el mismo idioma, el TCP/IP, que es el conjunto de protocolos que comenzó a usarse en 1983 para dirigir el tráfico de los paquetes de información por parte de Arpanet y garantizar que todos lleguen a su destino.

domingo, 2 de junio de 2013

ALTERNATIVAS A LA DEGRADACIÓN AMBIENTAL

1.) Energías Renovables.  El 80% del consumo energético proviene en la actualidad de la quema de combustibles fósiles (carbón, petróleo y gas natural), que producen CO2, causante del efecto invernadero, se agotan rápidamente y su consiguiente encarecimiento.
Urge la utilización de energías más o menos limpias como la geotérmica, hidráulica, impacto ambiental como la mareomotriz o la de las olas, la biomasa (CO2), biocarburantes (CO2), solar (placas que consumen mucha energía en su fabricación), eólica (impacto).

2.) Aire limpio. Ya en el silo XV ciertos autores ingleses denunciaban el olor nauseabundo de las calles de Londres causados por los “gases infernales y subterráneos” que desprendía la quema del carbón mineral…


El agujero de ozono


Gases de efecto invernadero y cambio climático
La luz procedente del Sol calienta la Tierra y esta libera parte del calor en forma de radiación infrarroja. Existen gases en la atmósfera que tienen la capacidad de retener parte de los infrarrojos, así que no todo el calor que había entrado sale de nuevo.
Gracias a los gases de efecto invernadero vivimos en un planeta confortable, ya que sin ellos la Tierra sería un lugar gélido e inhóspito.
En la atmósfera se hallan más de una treintena de gases de efecto invernadero, los dos responsables principales: el vapor de agua y el dióxido de carbono. El más importante es el vapor de agua, que retiene las dos terceras partes del calor que absorbe la atmósfera.

3.) Calidad del agua. La vida es inseparable del agua líquida y aunque el 70% del planeta está cubierto de agua, sólo el 3% es dulce y de esta, la mayoría es hielo.
La actividad humana está unida al uso masivo del agua dulce en la industria, agricultura y ganadería produciendo además, vertidos residuales que la contaminan, haciéndola perder las condiciones necesarias para los usos que tenía en su estado previo (productos químicos, microorganismos, elevación de temperatura, residuos  orgánicos y ganaderos, abonos, pesticidas, metales pesados -Hg y Pb-, pinturas y disolventes, hidrocarburos….. que le hacen perder al agua su calidad).
En las últimas décadas ha mejorado la tecnología para el tratamiento de los efluentes, pero la situación es extraordinariamente preocupante.

4.) Lucha contra la desertificación. La pérdida de suelo fértil por la eliminación de la cubierta vegetal protectora por deforestación, pastoreo intensivo, incendios forestales, urbanización y agricultura en suelos marginales.
La desertificación es una de las principales dificultades para aumentar la producción de alimentos y conservar la biodiversidad.
Urge la gestión adecuada del agua, proteger la cubierta vegetal y fomentar una agricultura y ganadería acorde con las posibilidades del suelo y su preservación. La protección del suelo es más rentable y económica que su recuperación.
En Andalucía  y el levante español es un problema grave, pues el clima subárido (lluvias torrenciales) favorece los arroyos y la desertización.

5.) Las tres “R”. El desarrollo tecnológico y la sociedad de consumo han disparatado la producción de residuos sólidos (las menos agresivas del medio), líquidos y gaseosos –más y más contaminantes-. Proceden de la agricultura, ganadería, pesquerías y aprovechamiento forestal; lo minería, la medicina y las ingentes cantidades de basura de hogares, comercios y construcción.
Contra los residuos biodegradación (microorganismos que consumen ciertas sustancias residuales) y biorremediación (favorecer la biodegradación, añadiendo abonos a los vertidos petrolíferos para favorecer el desarrollo de los  microorganismos que lo degradan).
Pero lo más urgente es frenar el impacto de los residuos sobre el medio mediante tres acciones (Las tres “R”):
-       Reducir la cantidad de residuos.
-       Reutilizar en lugar de usar y tirar.
-       Reciclar los desechos, especialmente papel, vidrio y metales (recogida selectiva y el tratamiento de los residuos para su reciclado es costoso y debería pagarlo el que los produce, “El que contamina paga”, pero al final lo pagamos los consumidores con un sobrecoste en nuestras compras.

6.) Disminuir la exposición a los riesgos naturales. Se viene observando un aumento de los riesgos climáticos asociados al cambio climático. El aumento de la cantidad de energía en la atmósfera, provocan violentos huracanes, inundaciones, vientos…. cuyos efectos son devastadores debido a las grandes concentraciones de la población en las ciudades (más del 50% de la humanidad vive en ellas) que además, muchas de ellas están situadas en lugares de riesgo como costas bajas o zonas sísmicas ……. Los expertos esperan que en cualquier momento ocurra el primer desastre natural que produzca un millón de muertos en una de estas megaciudades.