agosto 29, 2007

Japón busca crear una nueva red que reemplace a Internet

El gobierno de Japón anunció hoy que se encuentra investigando nuevas tecnologías para reemplazar Internet con un sistema que tenga menos fallas de calidad y mayor seguridad.

Yoshihiro Onishi, director adjunto del Ministerio de Comunicaciones de ese país, indicó que la red que se pretende desarrollar será imprescindible para 2020, a causa del caudal de información que circulará para ese entonces en la Web.

Internet está llegando a sus límites. Creemos que se requiere definitivamente la investigación para esa tecnología", dijo el directivo. Las declaraciones llegan un día después de que Vint Cerf, uno de los creadores de la Web, opinara que todavía se está "lejos de agotar su capacidad".

Japón se dispone a establecer una organización de investigaciones para el último trimestre del 2008. Una opción, comentó Onishi, sería cooperar en la investigación con otros países, entre ellos Estados Unidos.

Entre los problemas que deben enfrentar los investigadores para desarrollar la nueva tecnología figura la necesidad de establecer una red ecológica, a fin de utilizar bajos niveles de energía.

Más información: aquí

Desarrollan un Proceso Barato y Fácil Para Producir Paneles Solares

Investigadores del Instituto Tecnológico de New Jersey (NJIT) han desarrollado una célula solar barata que puede pintarse o imprimirse sobre hojas plásticas flexibles. El proceso es simple. Algún día la gente incluso podrá imprimir hojas con estas células solares baratas utilizando impresoras caseras de chorro de tinta. Los consumidores podrán pegar entonces el producto terminado en un muro, el tejado o hasta en una valla publicitaria o estructura comparable, para crear así sus propias centrales generadoras de energía eléctrica.

El investigador principal es Somenath Mitra, profesor del Departamento de Química y Ciencias Medioambientales del NJIT.

Recolectar la energía directamente de la abundante radiación solar utilizando células solares, emerge cada vez más como un componente fundamental de la futura estrategia global de la energía. Pero todavía resulta un desafío el dominio de las energías renovables. Son necesarias infraestructuras de grandes dimensiones y altos costos, como las turbinas de viento o los diques, para alimentar a las plantas de producción de energía eléctrica basadas en fuentes de energía renovable, como las eólicas o las hidroeléctricas. El silicio purificado, también usado para fabricar chips de ordenador, es un material fundamental para fabricar las células solares convencionales. Sin embargo, el procesamiento de un material como el silicio purificado está más allá del alcance de la mayoría de los consumidores.

El desarrollo de células solares orgánicas a partir de polímeros resulta una alternativa barata y potencialmente más simple.

Cuando la luz del Sol incide sobre una célula solar orgánica, la energía genera cargas positivas y negativas. Si las cargas pueden separarse y enviarse a electrodos diferentes, entonces circula una corriente. Si no, la energía se desaprovecha. Uniendo electrónicamente las células se forma lo que se llama un panel solar, como los que actualmente vemos en algunas azoteas. El tamaño de las células y el de los paneles varían. Las células pueden ir desde un milímetro a un metro aproximadamente. Los paneles no tienen ningún límite de tamaño.

La célula solar desarrollada por el NJIT utiliza un complejo de nanotubos de carbono. Los nanotubos son alrededor de 50.000 veces más pequeños que el grosor de un cabello humano. No obstante, un sólo nanotubo puede conducir la corriente eléctrica mejor que cualquier cable eléctrico convencional.

Mitra y su equipo de investigación tomaron los nanotubos de carbono y los combinaron con diminutas buckybolas de carbono (conocidas como fullerenos) para formar estructuras semejantes a serpientes.

Al agregar luz solar para excitar los polímeros, las buckybolas atrapan electrones. Entonces, los nanotubos, comportándose como cables de cobre, logran hacer que los electrones fluyan en una corriente.

Usando esta combinación única en una receta de célula solar orgánica, puede conseguirse incrementar la eficiencia de las futuras células solares pintadas. Algún día, este proceso puede llegar a ser una alternativa de energía barata para familias de muchas partes del mundo.

Información adicional en: New Jersey Institute of Technology

agosto 26, 2007

Transmitir electricidad sin cables

Imagínese un futuro en el que la transferencia inalámbrica de energía eléctrica es posible; los teléfonos móviles, los robots domésticos, los reproductores de mp3, los ordenadores portátiles y otros equipos electrónicos de bolsillo o maletín son capaces de recargarse por sí mismos, sin necesitar ser enchufados, librándonos de ese ubicuo cable que transporta la energía eléctrica a todas partes. Algunos de estos dispositivos podrían no necesitar siquiera sus voluminosas baterías para funcionar.

A pesar de que ya era posible transmitir energía eléctrica sin cables, los métodos empleados hasta ahora tenían graves inconvenientes. Sin embargo, un equipo de investigadores del Instituto Tecnológico de Massachusetts (MIT) ha demostrado experimentalmente un paso importante hacia ese asombroso futuro. Sus miembros son Andre Kurs, Aristeidis Karalis, Robert Moffatt, Peter Fisher y John Joannopoulos, dirigidos por Marin Soljacic.

Llevando a la práctica su reciente predicción teórica, lograron encender una bombilla de 60W por medio de una fuente de energía eléctrica a más de dos metros de distancia, y sin que existiera ninguna conexión física entre la fuente y la bombilla.

Experimentos similares de transmisión de energía eléctrica inalámbrica se iniciaron en el siglo XIX. Uno de los pioneros en este campo fue Nikola Tesla. Durante todo este tiempo se han ideado y probado distintos métodos con diversos resultados. Quizás el ejemplo mejor conocido sea la radiación electromagnética, como por ejemplo las ondas de radio. No obstante, si bien tal radiación resulta excelente para la transmisión inalámbrica de información, no es factible emplearla para la transmisión de energía eléctrica. Como la radiación se difunde en todas direcciones, la mayor parte de la energía eléctrica terminaría disipándose en el espacio libre.

Utilizar la radiación electromagnética dirigida no es muy práctico e incluso puede resultar peligroso. Requiere de una visual ininterrumpida entre la fuente y el dispositivo, así como de un sofisticado mecanismo de rastreo cuando el dispositivo es móvil.

En cambio, el concepto del MIT para la transmisión inalámbrica de electricidad está basado en emplear objetos acoplados mediante la resonancia. Dos objetos resonantes con la misma frecuencia de resonancia, tienden a intercambiar energía con notable eficacia, en tanto que interactúan débilmente con los objetos ajenos a su frecuencia de resonancia.

Un buen ejemplo del concepto es la resonancia acústica. Imagínese una habitación con 100 copas de vino idénticas, cada una llena de vino hasta un nivel diferente, por lo que todas tendrán diferentes frecuencias de resonancia. Si una cantante de ópera emite una sola nota con suficiente intensidad dentro de la habitación, una copa con la frecuencia de resonancia correspondiente a la nota musical puede acumular suficiente energía incluso para estallar, sin que el fenómeno afecte a las restantes. En cualquier sistema de resonadores acoplados, existe a menudo un régimen de funcionamiento que se describe como "acoplamiento fuerte". Si uno se asegura de operar un sistema en ese régimen, la transferencia de energía puede ser muy eficiente.

El equipo del MIT centró su atención en un tipo particular de resonancia: el acoplamiento magnético. Éste es particularmente adecuado para las aplicaciones cotidianas porque la mayoría de los materiales comunes interactúa sólo muy débilmente con los campos magnéticos, por lo que las posibles interferencias con objetos extraños del entorno se suprimen aún más.

El diseño investigado consta de dos bobinas de cobre, cada una asociada a un sistema autorresonante. Una de las bobinas está conectada a la fuente de energía eléctrica y constituye la unidad de suministro. En lugar de irradiar el entorno con ondas electromagnéticas, llena el espacio a su alrededor con un campo magnético no radiante que oscila en las frecuencias de los megahercios. El campo no radiante media en el intercambio de la energía eléctrica con la otra bobina (la unidad receptora), la cual está diseñada especialmente para resonar con ese campo. La naturaleza resonante del proceso asegura la fuerte interacción entre la unidad de suministro y la unidad de recepción, mientras que la interacción con el resto del entorno es muy débil.

La ventaja crucial de usar el campo no radiante radica en el hecho de que la mayor parte de la energía no recogida por la bobina receptora permanece "atada" en las inmediaciones de la unidad emisora, en vez de ser radiada al entorno y perdida. Con un diseño así, la transferencia de energía tiene un alcance limitado, y ese alcance se ve más reducido aún si el tamaño de los receptores mengua. En cualquier caso, ello basta para, por ejemplo, lograr niveles energéticos del todo válidos para alimentar a un ordenador portátil que esté ubicado en la misma habitación que la bobina emisora de energía, sin apenas importar el punto exacto de ubicación, dada la capacidad virtualmente omnidireccional del campo, y con independencia de la geometría del lugar, ya que los objetos que se interpongan entre las dos bobinas no dificultan la transmisión de energía.

Información adicional en: MIT

Cuestiones por resolver

Todavía quedan muchas cuestiones por resolver. Por ejemplo, con este sistema sería muy fácil robar energía eléctrica mientras no se encuentre alguna manera de encriptar la señal. Por otro lado, el campo magnético es de una intensidad considerable, aunque su acción no ha demostrado hasta hoy tener efectos nocivos, a diferencia de los móviles que emiten frecuencias electromagnéticas de baja potencia o de los microondas que emiten el mismo tipo de ondas pero en alta potencia.

Aún falta mucho para que la electricidad transmitida pueda viajar largas distancias. De todas formas el invento aspira a superar el único obstáculo que tienen actualmente los aparatos inalámbricos: la necesidad de enchufarlos: la necesidad de enchufarlos para cargar su batería.

El Grupo Gerdau y Siderperú apoyarán con más de 200 mil dólares para reconstrucción de zonas afectadas por terremoto

Como muestra de apoyo y solidaridad a la población afectada por el fuerte sismo, el Grupo Gerdau y Siderperú destinarán más de 200 mil dólares para brindar ayuda a los damnificados del sur del país. Este aporte será dirigido tanto al Fondo para la Reconstrucción de las zonas afectadas por el sismo, así como a la compra de alimentos y agua que serán repartidos en la zona.

En respuesta a la tragedia ocurrida, el viernes pasado se trasladó vía aérea, más de 74 mil litros de agua en botellas de fácil distribución, así como 72 mil raciones de pescado enlatado; como parte del monto total de 100 mil dólares que se destinará a la entrega de víveres.

Del mismo modo, los más de 2,000 colaboradores que laboran tanto en la planta de Chimbote como en Lima, vienen recaudando de manera voluntaria y solidaria un aporte económico, monto sobre el cual el Grupo Gerdau y Siderperú entregarán una cantidad similar en beneficio de los damnificados.

El Grupo Gerdau y Siderperú afirman su compromiso por contribuir al orden social y bienestar de la población afectada aunándose a la campaña liderada por el Estado Peruano para la reconstrucción de las ciudades, por lo cual entregará 100 mil dólares para el fondo de reconstrucción. "Todos unirnos para cumplir un objetivo común. Es la hora de sumar esfuerzos para lograr resultados que impulsen el desarrollo del Perú y su gente", expresó Luiz Polacchini, Director Ejecutivo deSiderperú.

agosto 25, 2007

¿En Cuántos Objetos Puede Usted Pensar Simultáneamente?

Aunque sentimos que tenemos ricas experiencias visuales, un equipo de investigadores ha encontrado que la persona media sólo es consciente de aproximadamente cuatro objetos en cada instante. Esta habilidad, según los investigadores de la Universidad de Oregón, varía de una a otra persona.

Como en la capacidad del sistema de la memoria de corto plazo parece residir un aspecto fundamental de la inteligencia, los psicólogos cognoscitivos se han interesado en determinar qué produce el límite de cuatro objetos para la mayoría de las personas. Una idea razonable que los investigadores han estado considerando consiste en que la capacidad de la memoria puede estar influenciada por la complejidad de los artículos que se almacenan.

¿La memoria humana trabaja de esta manera? El estudio bosqueja algunas conclusiones sorprendentes sobre el tema. Incluso cuando los sujetos participantes en los experimentos, de edades comprendidas entre los 18 y los 30 años, tenían que recordar objetos muy complejos, todavía podían mantener cuatro objetos en la memoria activa. Sin embargo, la nitidez de los objetos no era perfecta, y algunas personas tenían recuerdos mucho más claros que otras.

Un segundo hallazgo también sorprendió el equipo de la Universidad de Oregón. Si bien puede parecer razonable que las personas que piensan sobre más objetos simultáneamente también podrían tener recuerdos más claros que el promedio, los investigadores encontraron que esta suposición no era correcta.

Según los resultados, las personas que pueden recordar muchos objetos simultáneamente no tienen necesariamente los recuerdos más claros de esos objetos. Saber el número de cosas que una persona puede recordar no dice nada sobre cuán precisa puede ser la memoria de esa persona. Así, aunque aquellas con altos coeficientes intelectuales pueden pensar sobre más cosas simultáneamente, no hay garantías sobre cuán buenos podrían ser esos recuerdos.

Información adicional en: U. Oregon

Descubren el agujero en el espacio más grande nunca visto

Un grupo de astrónomos de la Universidad de Minnesota ha anunciado el descubrimiento de un enorme agujero en el Universo que carece tanto de la materia normal (estrellas, galaxias o gas) como de la misteriosa “materia negra”.

"No solo no ha encontrado nadie nunca un agujero tan grande, sino que no esperábamos encontrarlo", señala el astrónomo Lawrence Rudnick en un comunicado que aparece en la página web del National Radio Astronomy Observatory. El hallazgo será explicado con detalle en un artículo que se publicará en la revista Astrophysical Journal.

Los astrónomos saben desde hace años que el Universo tiene agujeros en los que prácticamente no hay materia, pero la mayoría de esos agujeros son mucho más pequeños que los descubiertos por Rudnick y sus compañeros.

"Lo que hemos encontrado no es normal, ya sea basándonos en estudios de observación o en simulaciones informáticas de la evolución a larga escala del Universo", indicó Liliya R. Williams, otra astrónoma que ha participado en el descubrimiento.

El hallazgo ha sido posible gracias a las obsrvaciones realizadas con radiotelescopios de largo alcance del Oservatorio Nacional de Radioastronomía (NRAO). La región vacía tendría 1.000 millones de años luz de extensión, y se encontraría entre 6.000 y 10.000 millones de años luz de la tierra, en la constelación (desde la perspectiva terrestre) de Eridano, al suroeste de Orión.

agosto 24, 2007

Revista Región Edición Impresa

Tal como anunciamos, ya esta en circulación Revista Región Nº 5 Agosto - Edición Impresa -, con temas de interés, como:
  • Pesca: Alternativa rentable; producción de harina de pescado homogeneizada
  • Laboral: ¿Por que no Pacto Social Regional?
  • Agricultura: Etapa pobre del agronegocio
  • Educación: I.E. Santa María Reina Conformo un Circulo Escolar de Investigación Científico.
  • Salud: Los riesgos ambientales y de salud.
  • pagina Social y deporte en imagenes.
  • Nuestra chica región.

Todo estos temas son abordados por nuestro staff de redactores y colaboradores.

Pronto podrá descargar, la edición completa.

agosto 23, 2007

En Europa, los niños usan más el celular e Internet

El último estudio realizado por la Comisión Europea analiza el consumo del móvil e Internet por parte de los niños. El uso ocioso supera al educativo, con diferencia entre hombres y mujeres.

La Comisión Europea realizó un estudio en 27 países de la Unión Europea más Suecia y Finlandia, donde se reveló que los niños han aumentado el uso de celulares, llegando a los 1,201,735 usuarios, utilizan Internet para sus deberes, pero sobre todo para fines ociosos como jugar online y navegar por la red.

Las mujeres en relación a los hombres, son las que además de jugar, navegan, se informan, escriben blogs, etc., mientras que en el caso de juegos el rango es más común de entre los nueve a diez y años y de doce a catorce, sin importar el sexo.

Los niños aprenden a utilizar la computadora por sus propios medios, por amigos, familia o en el colegio, lo que se debe a la tardía edad en que se les comienzan a dar clases de informática.

A pesar de no recibir educación sobre el comportamiento online, los niños saben que no deben hablar con extraños y menos quedar con ellos, aunque en algún caso reconozcan haber infringido estas reglas.

Entre los catorce y los dieciséis años un 72 por ciento de hombres y un 81 por ciento de mujeres poseen celular y son las que más escriben mensajes, si bien ambos lo consideran como una herramienta indispensable para comunicarse con sus amigos y un símbolo de su estatus social. Por su parte, los padres ven el móvil como una herramienta para controlar a sus hijos y tenerlos localizados, por eso la mayoría pagan de su bolsillo el móvil de sus hijos.

Más cerca de las estrellas con Google Sky


El gigante estadounidense Google, propietario del buscador más usado de internet, anunció ayer el lanzamiento de "Sky", una nueva herramienta que permite al usuario, a través del conocido servicio de mapas Google Earth, explorar el espacio desde la Tierra.

Con esta herramienta, según informó la multinacional en un comunicado, los usuarios pueden contemplar el cielo desde cualquier lugar del mundo y navegar entre 100 millones de estrellas y 200 millones de galaxias.

Las imágenes de alta resolución y la información superpuesta, obtenidas a través de telescopios y satélites, proporcionan un escenario "único" para la visualización y el aprendizaje del espacio.

"La idea básica es coger Google Earth y darle la vuelta para que en lugar de ver la Tierra se pueda ver el cielo ", dijo el especialista de la tecnología geoespacial de Google, Ed Parsons, a BBC News.

Para poder acceder a esta nueva herramienta, los usuarios solamente tienen que descargar "Google Earth" y elegir la opción de "Sky" en la barra de herramientas.

El interfaz y la navegación es similar a la del programa estándar de "Google Earth", que permite buscar, girar y acercarse a determinadas estrellas, constelaciones y galaxias.

Parte de "Sky" son los siete paneles informativos que ilustran varios cuerpos celestes y eventos.

Así, los usuarios pueden aprender acerca de las constelaciones, investigar las distintas estrellas que las conforman, observar el espacio a través de 120 imágenes de alta resolución del telescopio espacial "Hubble", admirar el movimiento y las fases de la Luna, localizar los siete planetas oficiales, efectuar un tour virtual por diferentes tipos de galaxias y realizar un recorrido por las diferentes etapas del ciclo vital de una estrella.

"Sky" ha sido creado por ingenieros del equipo de Pittsburg de Google, que juntaron imágenes procedentes de numerosos observatorios.

Sky no es la primera incursión de Google en el espacio, dado que ya en marzo del 2006 lanzó Google Mars que permite a los usuarios explorar la superficie del planeta rojo.

Los mapas de Marte fueron elaborados por Google sobre imágenes tomadas por las sondas de la NASA Odyssey y Global Surveyor, que desde hace años giran en torno al planeta rojo. Otro producto, Google Moon, ofrece a los internautas la posibilidad de observar los lugares de aterrizaje de las misiones Apolo.

Para ambas herramientas, Google utiliza datos de la Administración Nacional para la Aeronáutica y el Espacio de EEUU (NASA), con la que el gigante tecnológico firmó un acuerdo en diciembre de 2006.

agosto 22, 2007

El Satélite Europeo GOCE, Capaz de Predecir Sismos, Será Lanzado en Mayo de 2008

ESA
es el equivalente europeo de la NASA. Y nos ofrece una noticia que si bien no precisa detalles sobre la forma en qué opera el satélite, es una información que reconforta para quienes vivimos en zonas sísmicas

El primer satélite europeo GOCE, destinado a medir la gravedad terrestre y predecir terremotos, será lanzado con un cohete portador ruso en mayo de 2008, anunció hoy Jean-Jacques Dordain, director general de la Agencia Espacial Europea (ESA).

Dordain calificó los satélites de la serie GOCE -en cuya fabricación participa entre otras la compañía española CRISA- como los "ferrari en el ámbito del espacio", en referencia a sus grandes posibilidades, señaló la agencia oficial rusa Itar-Tass.

El director de la ESA hizo este anuncio al término de una reunión con el jefe de la Agencia Espacial rusa (Roscósmos), Anatoli Permínov, que ambos sostuvieron en el marco del Salón Aeroespacial Internacional MAKS-2007, inaugurado ayer en las afueras de Moscú.

El satélite GOCE será lanzado y colocado en la órbita de unos 250 kilómetros de altitud con un cohete portador ruso Rockot.

Con ayuda del GOCE, dotado de seis sensores de alta sensibilidad, será posible medir con precisión el campo de gravedad de la Tierra y predecir terremotos y otros cataclismos.

Hoy mismo, el director de la empresa española CRISA, Víctor Rodrigo, dijo en Tres Cantos (Madrid) que la puesta en marcha del programa GOCE permitirá obtener datos precisos sobre fenómenos físicos y dinámicos como volcanes o sismos.

"La función de este satélite es poder detectar anomalías en la gravedad de cualquier punto de la Tierra para así prever fenómenos catastróficos antes de que ocurran", indicó.

El director de ESA también anunció que en el marco del proyecto global europeo "Planeta vivo", a fines de 2008 será lanzado otro satélite europeo con un Rockot desde el mismo cosmódromo ruso de Plesetsk, ubicado a unos 800 kilómetros al norte de Moscú.

La realización del programa "Planeta vivo" comenzó en octubre de 2005, pero con escasa fortuna, pues el primer satélite meteorológico europeo CryoSat se perdió debido a un fallo de su cohete lanzador Rockot.

Poco después del lanzamiento, dos de las tres etapas del Rockot y el satélite cayeron al océano en una zona al norte de Groenlandia.

La pérdida del CryoSat supuso un serio revés para la investigación del calentamiento global, pero no alteró los planes de la ESA de continuar su programa de observación de la Tierra con ayuda de los cohetes rusos Rockot.

El proyecto "Planeta Vivo" está formado por cuatro programas: además de CryoSat, la ESA preveía poner en órbita polar con un Rockot otras tres misiones: SMOS, para estudiar la humedad del suelo y la salinidad de los mares, GOCE, para observar el campo de gravedad y alteraciones en el nivel de los mares, y ADM-AEOLUS, para analizar los vientos.

Durdain y Permínov abordaron, asimismo, las perspectivas de la cooperación de la ESA y la Roscósmos, que incluyen distintos proyectos conjuntos.

Las dos agencias han acordado "trabajar juntas en la creación de un nuevo sistema de transportes espaciales pilotados, que incluiría no sólo vuelos a la órbita terrestre y a la Estación Espacial Internacional, sino también a la Luna y a Marte", dijo Permínov.

agosto 21, 2007

Elk Cloner , El Primer Virus Cumple 25 Años


En 1982, el virus "Elk Cloner" – escrito como una broma por un estudiante de secundaria llamado Rich Skrenta en Pittsburg, PA – comenzó a aparecer en los sistemas Apple II. Prevista principalmente como una molestia, la carga del Elk Cloner era básicamente benigna. El virus infectaba el sistema operativo, se copiaba en los discos flexibles, y desplegaba uno o dos versos de un poema. El virus no tuvo mucha notoriedad ni provocó grandes preocupaciones. Pocos se dieron cuenta de que iniciaría una generación de ciber criminales y, en paralelo, una industria de seguridad de la información de varios millones de dólares para ayudar a combatir las amenazas.

En 1986, los virus para PCs IBM entraron a escena. Similar a Elk Cloner, los adolescentes que buscaban fama entre la población de hackers desarrollaron estos primeros virus no destructivos y los transmitían a través de discos flexibles. Durante gran parte de la década de los 80, los virus cumplieron con estas características – el daño era mínimo y los brotes eran raros. En 1988, sin embargo, el dócil panorama de los virus comenzó a cambiar. Internet, aún en su infancia, fue la nueva frontera para los hackers y muchos de ellos buscaron la notoriedad. El tristemente célebre "Morris Worm" se propagó a través de Internet y provocó daños considerables en todo el mundo. El virus Michelangelo provocó uno de los primeros pánicos mediáticos alrededor de los virus de computadora. Los reportes afirmaban que Michelangelo, programado para activarse cada año el 6 de marzo a partir de 2007, el cumpleaños número 517 del artista, podría borrar los discos duros de miles, incluso millones, de PCs infectadas. Si bien hoy la mayoría de los reportes contradicen esas estimaciones originales de daños, los medios han elevado el alcance de los hackers.

Desde entonces, las amenazas a la seguridad de la información han evolucionado a través de una serie de variaciones. Los virus integrados en archivos ejecutables dieron paso a los macro virus en los archivos de documentos, debido a la popularidad de Microsoft Word. A finales de los noventa, les siguieron virus entregados a través del correo electrónico. El devastador virus Melissa combinó virus y gusanos para propagarse e infectar a millones de usuarios. Lo que hacía era examinar las libretas de direcciones de Microsoft Outlook y enviaba un correo electrónico con un archivo adjunto infectado a algunas o todas las direcciones encontradas en ellas. Cuando el receptor abría el archivo, el proceso se repetía.

En un presagio de lo que iba a venir y con el correo electrónico siendo protegido cada vez más, el inicio de los años 2000 trajo a Code Red, que infectó casi 400,000 páginas web, seguido por MyDoom, que se propagó a gran velocidad a través del correo electrónico y del protocolo para compartir archivos Kazaa. Actualmente, está surgiendo una nueva ola de amenazas que utiliza la Web como el vehículo de entrega.

En 2007, el panorama de los virus no se parece en nada a la época en que surgieron, cuando el motivo era cobrar notoriedad. Motivados por el dinero, los ciber criminales dominan hoy la escena del crimen de alta tecnología, y utilizan principalmente la Web como el medio para sus actividades maliciosas. Caracterizados por técnicas combinadas, una explosión de variantes y ataques dirigidos y regionales, los ataques realizados a través de la Web (por ejemplo el spyware, el phishing, los rootkits y los botnets) suponen una amplia gama de costos potenciales.

agosto 20, 2007

Revelan que el Presidente Alan García Ignoró Alerta de Terremoto

El gobierno peruano ignoró la alerta hecha en 2005 por el científico peruano Hernando Tavera del peligro latente de un terremoto de grandes proporciones en la sureña región de Ica, reveló un programa de la televisión.

El conductor del programa 'El francotirador', del canal dos, Jaime Bayly, mostró el domingo un informe que Tavera, director de Sismología del Instituto Geofísico del Perú, entregó al estatal Instituto de Defensa Civil (INDECI) sobre los riesgos del cataclismo.

El voluminoso informe fue entregado en 2005 al INDECI y advertía de un terremoto en la actual zona de desastre y que tiene antecedentes en el terremoto de 2001 en los sureños departamentos de Arequipa y Tacna.

La región de Ica fue la principal afectada por el terremoto del pasado miércoles que se registró en Perú y que dejó más de 500 muertos, un millar de heridos y miles de damnificados.

'Lima continúa en ese peligro latente', alertó Tavera en el programa al cuestionar la actitud del gobierno que incluso no lo consultó el miércoles último, cuando ocurrió el sismo, y divulgó datos imprecisos.

Tavera recordó que en 1974 se registró un terremoto en Lima e indicó que 'mientras más lejos esté la fecha del último sismo más cerca estamos de que ocurra (otra vez esa eventualidad)', manifestó.

El titular del Instituto Geofísico del Perú (IGP), un organismo estatal, dijo a Bayly que desconocía de dónde el presidente Alan García sacó la versión de que fueron dos terremotos.

"Fue un sólo terremoto de 3,30 minutos, a mi modo de entender se sintió primero un movimiento leve y luego otro fuerte, eso dio la sensación de dos terremotos, pero fue un sismo muy complejo en su desarrollo", aseguró.

Tavera dijo que los sismógrafos colocados en Perú establecieron en 7 grados Richter la magnitud, equivalentes a los 7,9 que se ha señalado a nivel internacional, indicó tras añadir que Perú no está preparado para enfrentar un terremoto de gran magnitud.

El científico reconoció que en 2005 presentó un informe público, que también fue remitido al Instituto Nacional de Defensa Civil (INDECI), en el que se advirtió en detalle que un terremoto podía ocurrir en la costa sur, frente a la costa de Pisco, la ciudad más devastada por el sismo del miércoles.

"El IGP hace investigaciones y las publica, en 2000 hicimos un estudio de los grandes terremotos que ocurrieron en el país y esos resultados fueron publicados y presentados a la Defensa Civil, se difundieron en la página web, fueron revisados por prestigiosos sismólogos antes de que se publicaran", aseguró.

Tavera precisó que el informe encontró que "un área entre Chilca (al sur de Lima) y Pisco no se había roto desde 1746, por lo que había la alta probabilidad de que ocurra un sismo".

El informe mostrado por Bayly, quien conduce el programa "El Francotirador" en la cadena Frecuencia Latina, indicó que "las área más relevantes o comprometidas con la posible ocurrencia de un sismo en el futuro son al sur de Ica (donde se encuentra Pisco) y 150 kilómetros frente a Moquegua y Tacna".

"A las investigaciones nunca se les hace caso al cien por ciento", señaló el especialista, quien alertó que en el informe también se establece otras zonas de riesgo, como un área entre Arequipa e Ilo, también al sur del país.

Tavera dijo que "el gobierno debe desarrollar un trabajo de prevención a nivel nacional" y que "los medios de comunicación deben dedicar horas a difundir la cultura científica".

"Ni nosotros ni nadie en el mundo tiene la capacidad de predecir cuando va a producirse un terremoto, pero sí es probable determinar las áreas", enfatizó.

Después del Sismo al Sur del Perú, Atención a las victimas se vuelve crítica


El sur Perú, fue sacudida por un fuerte sismo, de 7.9 en la escala de Ritcher, el pasado miércoles a las 6:40 de la tarde, los cuales causaron considerables daños materiales en la región de Ica al sur de Lima. Aunque las autoridades aún no tienen un balance de las consecuencias del movimiento telúrico que afectó la zona de Ica en el Perú, Defensa Civil ha confirmado la muerte de mas de 500 personas y ha calculado el número de heridos en más de 1500.

La ciudad de Pisco resultó ser la más afectada. El número de muertos, sólo allí, podría superar los trescientos y más del 70% de las edificaciones del lugar resultaron destruidos.

Hasta la fecha, más de cuatrocientas réplicas del terremoto han tenido que soportar los pobladores de la región de Ica, mientras tratan de paliar las consecuencias de uno de los terremotos más fuertes de a historia de ese país. Entre el miedo, decenas de miles de personas buscan donde dormir, un poco de agua o alimentos básicos. La capacidad de atención de emergencias del país se vio desbordada por la magnitud de la tragedia, el desorden en la gestión de las ayudas y por lo sorpresivo que resultaron sus consecuencias que fueron evaluadas inicialmente como no muy graves.

A pesar de los inmensos esfuerzos que se realizan y de la solidaridad internacional, la atención de las víctimas del terremoto se ha dificultado, lo que llevó a que grupos de víctimas saquearan vehículos que transportaban bienes para atender la emergencia. Hay necesidades de agua potable en la región y el sistema de salud de la zona se encuentra completamente colapsado. Miles de personas reclaman ausencia de las autoridades en algunas de las zonas afectadas.

En algunas zonas de los municipios más afectados, especialmente en Pisco ha habido saqueos de comercios e incluso de viviendas que no fueron afectadas por el terremoto hasta donde han llegado personas armadas a exigir la entrega de bienes. Las víctimas se quejan de que la atención se ha concentrado en los centros de los cascos urbanos pero que no se ha distribuido ninguna ayuda en zonas apartadas donde hay sed y hambre.

La debilidad institucional para atender este tipo de emergencias quedo evidenciada con éste hecho. El Gobierno, señaló que los municipios han descuidado el área de defensa civil, pero lo cierto es que el sistema de salud y las comunicaciones se convirtieron en los puntos más críticos. Dos horas después de ocurrido el terremoto el Presidente García afirmó que no se trataba de un desastre con grandes pérdidas en vidas humanas y más de doce horas después la Defensa Civil solo había confirmado la muerte de 48 personas, esto es, un poco menos del 10% de las víctimas.

La interrupción de las carreteras demoró la entrega de las ayudas que, en su mayor parte, han tenido que moverse por aire y agua.

agosto 15, 2007

Pronto la Edición Nº 5

Revista Región Pronto Edición Nº5

Revista Región, anuncia la publicación de su nueva edición, Edición Nº 5 Agosto 2007,

agosto 14, 2007

BIENVENIDOS AL BLOG DE REVISTA REGIÓN

Revista Región, se lanza al ciberespacio, con la creación de nuestro Blog, para estar acorde con la comunicación moderna y compartir con ustedes, temas de interés.

El propósito de este blog, es tratar de contribuir al desarrollo de nuestra Región, y el país, tan igual como en su edición impresa, con temas de integración, desarrollo e innovación, debatiendo y concertando propuestas e ideas que se generan dentro de nuestra comunidad. Además informando sobre opiniones, artículos o proyectos, que vayan apareciendo no solo en el mundo empresarial, si no también en las diferentes actividades económicas de nuestra Región.