Juanmgeo

Principio tienen las cosas[editar | editar código]

Un peligro frecuente al hablar de Internet y de cualquier conocimiento o tecnología es desconocer el contexto y los intereses que se encuentran en su génesis. Una muy breve introducción a los hitos en el desarrollo de la red de redes nos permite reconocerlas como producciones de una sociedad y reflejo de sus contradicciones. Para comprender su aplicación también se deben tener en cuenta estas ideas.

Solo así lograremos evitar caer en la noción de una Internet uniforme, buena por naturaleza capaz de solucionar cada problema de la sociedad y lograr un análisis más rico de nuestro fenómeno de estudio.

Con frecuencia se repite el refrán “la necesidad es la madre de la invención”. Siguiendo esta analogía es fácil identificar al comercio y la guerra como el posible responsable de la paternidad en gran parte de las tecnologías que utilizamos a diario.

Internet no escapa a esta realidad, surge en la decáda de 1960 en el contexto de la guerra fría. Estados Unidos buscaba una forma segura y descentralizada de intercambiar información de Estado para evitar que una ataque soviético pudiera destruir un centro vital de comunicaciones y dejar a la nación expuesta o indefensa.

En 1962 el director de Instituto Tecnológico de Massachusetts propone la idea de una red de comunicaciones descentralizada a la agencia Defense Advanced Research Projects Agency ( desde ahora DARPA) perteneciente al Pentágono.

De este modo en 1969 DARPA y Rand Corporation crean DARPANET que consistía en una red para enviar y recibir informaciones basada en paquetes conmutados lo que se considera la piedra fundamental de la internet como la conocemos

Durante el año 1972 Ray Tomlinson inventa el correo electrónico, primera aplicación en poner e manifiesto la importancia de la red más allá del ámbito militar

En el año 1973 se crea el Protocolo de Control de Transmisión/Protocolo de Internet (TCP/IP) en base a 4 reglas básicas. Estas reglas serán parte central de internet durante gran parte de su historia

  • Cada red diferente debería mantenerse por sí misma, y no debía ser necesario cambio interno alguno para que esas redes se conectasen a Internet.
  • La comunicación se haría en base al mejor esfuerzo. Si un paquete no llegaba a su destino final, se retransmitía poco después desde el origen.
  • Se usarían cajas negras para conectar las redes; más adelante, estas cajas negras se llamarían puertas de enlace y enrutadores. Las puertas de enlace no guardarían información acerca de los flujos individuales de paquetes que pasaban por las mismas, manteniendo su sencillez y evitando la complicación de la adaptación y la recuperación a partir de varios modos de error.
  • No habría control global a nivel operativo. 1

En 1985 se establece el DNS (Domain Name System) método por el cuál las direcciones de internet pasan a usar nombres en vez de números, marcando un gran avance para la popularización de la tecnología

1991 Tim Berners-Lee publica el protocolo de la World Wide Web (el famoso www) en el centro de investigación europeo CERN.

1994 primeros baners comerciales, 1996 Procter&Gamble imponen el pago por clic, tecnología que dominará la publicidad en linea de ese momento en adelante.

1998 Nace Google

1999 Napster y el auge de la piratería

2000 la web supera la 1000 millones de páginas

2004 creación de las licencias Creative Commons

1[HBIOS]

El Hardware[editar | editar código]

Hasta las nubes están en algún sitio.[editar | editar código]

Interior de uno de los centros de datos de Google, Councill Bluffs Iowa, EEUU.jpg

Mas allá de todas las voces que hablan de la eliminación de las distancias y por consiguiente de la geografía, para que nuestros dispositivos puedan acceder a todo el universo de informaciones y oportunidades que brinda la red, sigue siendo imprescindible contar con estructuras físicas que almacenen, organicen y distribuyan el tráfico en linea a nivel mundial.  Esta parte que generalmente pasamos por alto,  es lo que denominaremos el hardware de Internet.

El mismo está compuesto muy a grosso modo, por los servidores que almacenan y gestionan los datos y la redes de cableado que los distribuyen a todos los puntos del planeta.

Reconocer la  localización de estos elementos nos permite saber más acerca de la naturaleza de la red y comprender la importancia del espacio para su organización.

Comenzaremos diciendo que toda la información que circula en linea siempre se almacena en un lugar geográfico determinado… y no, no es una nube como las metáforas informáticas no pueden llevar a pensar.

Los servidores son la pieza clave de este sistema de almacenamiento, y están compuestos por inmensas instalaciones donde se aloja la información de la red a la espera de ser consultada por los consumidores.

Estos servidores requieren enormes cantidades de energía disponible las 24 horas y los 365 días del año especialmente para refrigeración, ya que al igual que la computadora de tu hogar los equipos sufren recalentamiento. Estas condicionantes son fundamentales al momento de entender dónde están ubicados los servidores.  Naturalmente su ubicación también se relaciona con los sitios con mayor demanda de servicios, condiciones de estabilidad política, beneficios fiscales y personal capacitado. Dicho de manera más simple están sujetos a los mismos factores de localización industrial que se consideran desde siempre en la geografía económica.

Un rápido vistazo al mapa permite observar la posición de liderazgo de China en este sector, que tampoco es sorpresivo en la economía globalizada de nuestro tiempo

Mayores data centers del planeta 2017

Lo  que no necesariamente salta a la vista en el mapa es 6 los mayores 15 data centers se localizan en la ciudad de Hohhot en la provincia China de Mongolia Interior. A continuación veremos que hace tan especial a esta ciudad y por que gran parte de la web se aloja en este sitio.

En algún lugar de la provincia de Mongolia Interior (China)[editar | editar código]

Que hace tan especial a Hohhot una ciudad de cerca de 3 millones de habitantes,  ubicada en Mongolia Interior a poco más de 1000 metros sobre el nivel del mar, que le permite ser la sede de los 6 data centers más grandes del planeta.

Como mencionamos anteriormente un data center de gran escala precisa de mucha energía. Ella esta disponible en Hohhot gracias a una combinación de fuentes geotermales e hidráulicas. A escasos kilómetros de distancia se encuentra Togtoh hogar de la planta de generación geotermal más grande de Asia con una capacidad de 7.7m kW.
Localización de Hohhot en China
El clima juega un papel crucial en la ubicación de los data centers. En Hohhot el promedio de temperaturas anual es de 8° C lo que implica un gasto mínimo de energía para refrigeración de los equipos. Las temperaturas superan los 10° C solo durante cinco meses al año y apenas alcanzan los 20° en el mes más cálido. El sistema de altas presiones siberiano que lleva aire frío y seco durante el invierno es uno de los responsables de este benéfico.  Durante el verano el ingreso del monzón brinda un caudal de precipitaciones de muy favorable para la generación de energía hidroeléctrica.

La geología del lugar es otro factor a tener en cuenta. La región de Mongolia Interior es tectónicamente estable, condición que  la coloca un una situación sumamente ventajosa sobre el resto del territorio chino.

Pero solo se trata de ventajas naturales. China apuesta fuertemente al desarrollo de la región. El país ha invertido en el funcionamiento de 22 colegios y universidades especializados en software y tecnología que aportan a la región la nada despreciable cifra de 80000 graduados. 1

El caso de Islandia y importancia en el sistema financiero[editar | editar código]

Pese no figurar en los primeros puestos en lo que se refiere a servidores en última década Islandia esta emergiendo como un centro para la localización de data centers que sirven a Europa  

Islandia como isla debe su existencia a la dorsal Atlántica, que forma una cadena volcánica que atraviesa el océano de norte a sur. Toda la isla es un volcán, emergido de dicha dorsal. Sus pobladores no solo han logrado convivir con un volcán activo sino que pudieron desarrollar la tecnología para aprovechar la energía geotermal que de el emana.

Por este motivo las tarifas eléctricas de Islandia son en promedio 20% más baratas que las de la Unión Europea, y con una estabilidad de precios envidiable por tratarse de una fuente energética autóctona y predecible. Si sumamos la energía eólica el total de los requerimientos del país se abastecen con fuentes renovables.

El clima de Islandia también es favorable para la actividad. Las bajas temperaturas que perduran a lo largo de todo el año sin llegar a extremos (el mes más frio llega apenas a -2 grados celsius) resulta ideal para reducir los gastos de enfriamiento de los supercomputdores.

Para comprenderlo recurrimos a la teoría de los lugares centrales. Islandia se encuentra a mitad de camino entre Estados Unidos y Europa (principales mercados de consumo de datos), en un punto cercano al pasaje múltiples cables submarinos de fibra óptica. Esto lo pone en el centro del tráfico de la red, pero es solo el inicio de la explicación.

El país cuenta con una fuerza laboral muy capacitada, estabilidad política, una legislación que asegura la integridad y privacidad de los datos. El valor del suelo para construir es bajo, al igual que los impuestos y existen grandes ventajas para la inversión extranjera.