domingo, 20 de noviembre de 2011


Un Blogger por Vocación


El trabajo de Arturo Goga: descifrar cómo sacarle el jugo a los nuevos aparatos tecnológicos que salen al mercado.

En el 2008 y en el 2010 ganó el premio al mejor blog de tecnología en el Perú. Tiene 28 años y vive de los ingresos que le reporta la página que lleva su nombre. Su trabajo consiste en descifrar cómo sacarle el jugo a los nuevos aparatos tecnológicos que salen al mercado y las herramientas que aparecen por la web. Su éxito es tal que al mes recibe un millón 800 mil visitas de usuarios ávidos de sus consejos.
 
Por María Isabel Gonzales
Fotos Rocío Orellan

13 de noviembre de 2011
Fuente La República

“Para entender la tecnología no se necesita un curso de cuatro meses en un instituto, pero sí cierta dedicación como usuario. Como mínimo hay que ser curioso”, dice Arturo Goga sobre el tema de su blog. Está sentado frente a dos pantallas desde donde visualiza los comentarios de sus seguidores en la web y las reseñas que escribe a diario. Su oficina queda en el tercer piso de su casa miraflorina de toda la vida. Aunque acude cada que vez que lo llaman para dar una opinión sobre tecnología –en el Perú y en el extranjero– no se le han subido los humos. Y quizás esa sea la razón por la que su fama no se queda en la blogósfera sino que se ha convertido en una fuente de consulta obligatoria sobre tecnología en el mundo real. Arturo cuenta que no ve a su blog como un trabajo sino como un hobby. Lo que resulta ideal si tenemos en cuenta que con su pasatiempo tiene ingresos suficientes para vivir tranquilo mes a mes.
La historia con el blog “arturogoga” se remonta al año 2006. Estaba terminando sus estudios de publicidad y las 600 mil visitas al mes que tenía por aquel entonces convertían esta suerte de bitácora online en una opción viable de autoempleo. Cada click que los visitantes daban a la publicidad de su blog significaba para él un ingreso que iba directo a su cuenta de ahorros. Trabajar de esa manera no era convencional y dudó entre dedicarse de lleno al blog o decidirse a formar una agencia de publicidad con un grupo de amigos. Al final pesó más su pavor por las oficinas y los horarios fijos. Se prendió de su Pentium 4 y se conectó a Internet. Hoy sabe que tomó la decisión correcta. Su celular timbra. Es uno de sus amigos. Quiere preguntarle qué teléfono o laptop debe comprarse.
Primero los videojuegos
El recuerdo más lejano de su relación personal con la tecnología es un Atari. Esa videoconsola de juegos que se hizo popular a fines de los años 70. Luego fue el Nintendo y después el Playstation. En más de una ocasión los aparatos sufrieron algún desperfecto, y su papá no estaba siempre con ganas de pagar la cuenta del mantenimiento. Así que Arturo se puso a investigar cómo hacerlas funcionar. De ahí le viene la fascinación por los adminículos que la tecnología ha inventado. 
Recuerda que la primera vez que tuvo una computadora lo abordaron sentimientos encontrados. La adoraba, pero también quería darle de martillazos. Los repuestos eran muy caros y era bastante lenta con el Windows 3.1 como sistema operativo. Aun así no se despegó de ella. Con el tiempo fue renovando sus equipos. Cuando descubrió los ebook readers dejó de leer libros en papel.
Se ríe cuando recuerda lo prejuicioso que solía ser con la marca de Steve Jobs. Pensaba que solo los que buscaban un diseño bonito la usaban. Por eso se mantuvo como usuario de Windows. Hasta que se dio cuenta que su trabajo lo obligaba a usar los dispositivos de esa marca. Debía decirles a sus seguidores si en realidad un aparato de Apple sería cómodo de llevar en su día a día. Apenas la probó se arrepintió de no haberlo hecho antes. “Me pareció sumamente interesante. Era mucho más completa de todo lo que había probado. Se notaba que había un cuidado casi artesanal de lo que experimenta el usuario”, cuenta Arturo.
A contracorriente
Después de verlo armar y desarmar videoconsolas y computadoras, sus amigos de colegio y universidad vaticinaban su futuro. “Ah, de seguro vas a ser informático o ingeniero de sistemas”, decían. Pero Arturo, fiel a su costumbre de ir contra la corriente, se decidió por el periodismo. Y aunque hizo prácticas en algunos medios locales, sintió que no era lo suyo. Él quería comunicarse de otra forma. Se cambió a publicidad y luego abrió su blog. Le gusta escribir y no tiene que explicarlo todo cada cinco minutos. Es un poco impaciente.
Antes de seguir con las preguntas suena un aparatito detrás de una silla. “Es el ambientador automático”, revela Arturo. En esa misma mesita veo un termo, un par de tazas, bolsitas de té y café. Tiene que ponerse cómodo ya que este es su lugar de trabajo. Al principio era un poco desordenado con los tiempos. Podía escribir durante 14 horas seguidas y luego irse a la playa. Ahora le dedica entre cuatro y cinco horas al blog, y dos horas a otros proyectos. Lo que nunca falta en su día a día es la interacción con sus seguidores. Responde las preguntas que le dejan en el blog o en las redes sociales.
Pensó que ya llevaba mucho tiempo haciendo lo mismo. Quería aprender algo que siempre le había gustado: fotografía. Creyó que podría poner a otras personas a trabajar en el blog para dedicarse a nuevos proyectos. No contaba con que el 2011 sería su año más trajinado. Pero a él no le gusta quedarse con las ganas de hacer cosas nuevas. Ha retomado su gusto por la música. “Mi guitarra es lo único que no reemplazaría por la tecnología”, asegura. Lo que no descarta es virar el rumbo del blog hacia otros tipos de inquietudes.
Nada en especial ha llamado su atención últimamente, pero confiesa que está ansioso por el lanzamiento del juego Zelda para Nintendo Wii. Le preguntamos por una cortina que divide su oficina. La abre y descubrimos su centro de juegos: una pantalla gigante y varias videoconsolas, cables y discos. Aquí Arturo deja de ser un adulto y por unas horas vuelve a ser el niño que se quedó prendado del Atari que le regaló su padre .
Perfil
Nombre: Arturo Goga Ytokazu.
Lugar de nacimiento: Lima, 25 de setiembre de 1983.
Estudios: Periodismo y publicidad, Universidad Inca Garcilaso de la Vega.
Ocupación: Blogger en tecnología. Consultor y conferencista sobre usos de nuevas tecnologías.
Premios: Blog del año en tecnología (2008, 2010).

Datos
60 mil visitas al día recibe el blog de Arturo Goga.
5 horas le dedica a los contenidos del blog diariamente.

miércoles, 16 de noviembre de 2011


La evolución del celular


Telefonía móvil

Fuente La República

 
iPhone 4S 2011

Desde que el Motorola DynaTAC 8000X –semejante a un ladrillo– irrumpió como el primer teléfono celular de la historia, los modelos móviles se fueron haciendo cada vez más pequeños, más rápidos y con más aplicaciones. Esta nota abarca los avances que se dieron desde los años 80 hasta el último iPhone apareció ésta semana.
Por Raúl Mendoza

En el mundo de los teléfonos celulares la tendencia indica que en un máximo de dos años el mercado será dominado por los smartphones, o teléfonos inteligentes, es decir, aquellos con conexión a internet, múltiples aplicaciones, muy ligeros y rápidos. Será como tener una minicomputadora en el bolsillo. Como lo son hoy el iPhone 4S –aparecido el último martes– o el Samsung Galaxy S2, los teléfonos más avanzados del mundo. Ante ese panorama futuro, quién pensaría hoy que la era del celular empezó con un teléfono que pesaba 800 gramos, demoraba diez horas en cargar baterías y tenía autonomía de apenas una hora de conversación.
Ese teléfono, el padre de los celulares, era el Motorola DynaTAC 8000X, lanzado en 1983, tras 15 años de pruebas y 100 millones de dólares invertidos en su desarrollo. Mirándolo con ojos de la actualidad parecería un artefacto poco práctico para los usuarios, pero en su momento causó sensación por la facilidad de poder ser llevado por una persona, es decir, ser móvil. Antes de eso, en la prehistoria del teléfono celular, lo máximo a que podía aspirarse era a tener un terminal en el automóvil y contestar llamadas desde allí. Pero nada podía compararse a recibir y hacer llamadas al alcance de la mano.
Ese adelanto de los años 80 cambiaría el mundo de las telecomunicaciones. En esa década los modelos celulares mantuvieron el diseño aparatoso y una sola función: llamar y recibir llamadas. La mayoría tenía teclas adicionales básicas para la salida de llamadas (send), finalizarlas (end), remarcar (recall) o subir el volumen (vol). Las mejoras fueron pequeñas en el diseño; se buscó sobre todo mejorar el alcance de las llamadas y la señal porque las conversaciones hasta entonces no sonaban muy bien.
Para la siguiente década, los 90, la tendencia señalaba la reducción del tamaño y el paso de la señal analógica a la digital. En esta década se destacó el teléfono celular StarTAC, considerado uno de los mejores diseños industriales de la historia por la reducción radical del tamaño, su forma plegable, la mejora del audio y su mayor alcance. Después de este modelo todos los que siguieron fueron pequeños, digitales y empezaron a tener un ‘menú’ con aplicaciones. Para mediados de esta década los usuarios de esta industria ya llegaban a los 50 millones. La verdadera explosión ocurriría a fines de los 90, cuando el uso del celular se masificó en el mundo.
Como parte de esa historia a fines de los 90 sale al mercado el Nokia 3210 y vende 160 millones de unidades. Fue el celular más exitoso hasta entonces, el primer modelo en prescindir de antena visible –tenía una interna– y en contar con mensaje de texto y juegos. Cuatro años más tarde, el 2003, la misma empresa pondría en el mercado el modelo Nokia 1100, considerado hasta el 2010 el celular más vendido de la historia con 200 millones de unidades. Su pequeño tamaño, su menú amigable y su diseño compacto y resistente lo hicieron un éxito entre la gente joven. Veinte años después de la aparición del celular, el teléfono móvil había pasado de pesar casi un kilo a pesar tan solo 90 gramos.
El futuro a partir del 2000
“A partir del 2000 los teléfonos pasan de la pantalla verde y negra, o blanca y negra, a las pantallas de color. También empieza la convergencia con sistemas de radio, cámara y banda ancha. Hay modelos que ya eran los predecesores de los teléfonos inteligentes como el Sony Ericson P800 del 2002. Después, con la aparición del iPhone el 2007, se inició una revolución en el mundo de los smartphones”, explica Arturo Goga, responsable de la página web Tecnología para todos.
La segunda mitad de la última década ha sido el reino de los teléfonos inteligentes y la tendencia es imparable. “Cada vez más el teléfono es un asistente digital personal. Muchas funciones y componentes que antes encontrabas en tu computadora están ahora en tu teléfono inteligente. Es increíble cómo un teléfono como el Samsung Galaxy S2 puede ser tan rápido y tener tantas aplicaciones en un diseño de 8.8 milímetros de espesor”, explica Goga. Lo mismo vale para todos los teléfonos de esas características. Será impensable en poco más de un año tener un celular sin conexión a internet.
En los últimos años la tendencia en la telefonía celular es la convergencia: deben tener navegación web, correo, registro y reproducción de audio y video, cámara fotográfica de alta definición, juegos multimedia, GPS, conexión a TV y multitud de otras aplicaciones. Con la aparición del iPhone la tendencia también se encaminó por la desaparición del teclado y la apuesta por la pantalla táctil, mucho más fácil, rápida y amigable. Hoy también hay otras consideraciones para escoger uno: la duración de la batería, el tamaño y grosor del aparato, y muchas veces el diseño.
El iPhone 4S de Apple –aparecido esta semana, un día antes de la muerte del fundador de la compañía, Steve Jobs– no solo mantiene la pantalla táctil sino que ahora trae aplicaciones que funcionan con la voz del usuario. Se puede preguntar por ejemplo sobre el clima en una ciudad y recibir una respuesta. El teléfono en su versión 2011 ha recibido elogios, pero también críticas. Por ejemplo, que ha pasado de 137 a 140 gramos y su pantalla sigue siendo más pequeña que la del Samsung Galaxy, que además pesa solo 116 gramos.
¿A dónde caminan los celulares del futuro? Según Arturo Goga, pronto el celular será usado como una suerte de tarjeta de crédito para realizar pagos en cualquier lugar. Ya no será necesario ni siquiera usar billetera. Una evolución imparable en menos de 30 años.
Tecnología móvil

Inteligentes. El PalmOne Treo 600 apareció en el 2003 y es considerado uno de los primeros smartphone de la historia. Le siguió el Sony Ericson W800, que venía con uno de los más exitosos ‘gadgets’ de la industria: incorporar música al teléfono.
iPhone. Hasta el primer trimestre del 2011 Apple tenía vendidos 90 millones de iPhones en el mundo en todas sus versiones. Esperan cerrar el 2011 con 100 millones de unidades vendidas. Es probable que en unos años sea el modelo más vendido de la historia.
Aplicaciones. Las aplicaciones más descargadas para smartphones son Facebook, Gmail, Google Maps o Pandora Radio. Las descargas de pago más exitosas son usualmente juegos. Las tiendas de descarga como Apple Store o Android Market tienen miles de aplicaciones gratuitas y de pago.
Usuarios. Hasta fines del 2010 unos 4 mil millones de personas tenían un teléfono celular, es decir, el 61% de la población mundial.

domingo, 28 de agosto de 2011


Crisis financiera acelera el rediseño del negocio de las PC


MULTINACIONALES SE VEN OBLIGADAS A DISEÑAR NUEVAS ESTRATEGIAS PARA NO REPETIR DEBACLE DEL2008
La venta de computadoras no morirá, pero cede terreno a tabletas
Por: Marcela Mendoza Riofrío
Sábado 27 de Agosto del 2011
Steve Jobs deja la dirección de Apple, HP anuncia que ya no se dedicará a fabricar PC y Motorola Mobility vende todos sus activos (incluyendo más de 17 mil patentes) a Google. Todo en menos de 14 días. Justo después de vivir una semana negra en las bolsas de todo el mundo. ¿Casualidad? De ningún modo. La industria tecnológica empieza, de nuevo, una serie de cambios para poder paliar la crisis, atender las necesidades actuales de sus clientes y lograr la ansiada rentabilidad. Y eso, de una manera u otra, se verá reflejado en el mercado local.
La primera explicación a todos estos cambios es que la ‘era de las PC’ está llegando a su fin. Quienes creyeron que el temporal había pasado por completo a fines del 2009, cuando sus ventas se recuperaron un 22%, se equivocaron: las olas han retornado con fuerza y solo en Europa, según Gartner, las ventas han caído casi 20%. Pero ya Steve Jobs lo había previsto a fines del año pasado cuando hablaba de una incómoda etapa ‘post PC’ y comparaba las computadoras de escritorio con los camiones, vehículo habitual de transporte hasta que llegaron los pequeños autos de cuatro asientos, que vendrían a ser las tabletas.
La explicación tecnológica de este cambio es que existen suficientes equipos –primero las netbooks, ahora las tabletas– que atienden la necesidad de un equipo móvil con la potencia de una computadora. Al parecer, 30 años fueron suficientes y ya existe una nueva categoría acorde al consumidor de este siglo. Pero eso no es todo. Si HP, el fabricante que vende más PC en el mundo y tiene el 27% del mercado peruano, salió a anunciar que dentro de 18 meses planea dejar de vender PC, no es solo por razones tecnológicas.
Según Fernando Grados, director de Dominio Consultores, el comunicado de HP es la reacción lógica ante un negocio que hoy no es tan rentable. “Quienes no comprendan que estamos en una nueva era, con seguridad estarán pronto fuera del negocio. Está claro que HP no puede con los costos ni con el sostenimiento de la infraestructura que hoy exige la división de PC. Ellos están buscando una escisión de la división para que “viva” en forma independiente o venderla. Veo difícil que haya un comprador que quiera un negocio de ese tamaño y con esos costos. Sin embargo todo es posible”, sostiene.
Su competidor directo, Dell, sonríe gustoso ante este panorama, pero coincide y entiende bien el nuevo enfoque de HP (vender soluciones empresariales y no máquinas, como hace IBM desde el 2005) porque sabe que el negocio del hardware no es tan rentable como quisieran. Prueba de ello es que, en el último semestre, su facturación creció 1%, mientras que sus ganancias se multiplicaron en un 107% porque decidieron concentrarse en las soluciones.
MAL DE MUCHOS
¿Por qué es tan importante tener márgenes de ganancia altos? ¿Por qué cerrar una división que lidera las ventas? Una parte de la explicación, claro está, es que todas las grandes compañías ligadas a la tecnología cotizan en la bolsa de valores y, debido a la crisis internacional, tienen cientos de inversionistas nerviosos detrás, dispuestos a vender sus acciones si el barco parece a punto de hundirse. Los analistas de Gartner lo saben bien y, por eso, cuando hablan de una creciente tendencia de uso de equipos portátiles y del acceso al software desde Internet (la nube, en lenguaje cibernético) repiten sin cesar la palabra convergencia, lo cual implica que los grandes compren a los chicos y pocos gigantes manejen todo. Y eso explica por qué Google compró Motorola.
Ya en el 2008 toda la industria, no solo los fabricantes de PC, sufrieron serias caídas de sus acciones en la bolsa, perdieron compradores en sus principales mercados (Estados Unidos y Europa), vieron caer sus ganancias en 30%, despidieron 35 mil trabajadores durante los primeros meses de crisis (y más de 100 mil en un año), cerraron varias fábricas y vendieron otras tantas. Se redujo la “grasa” tanto como fue posible y el resultado fue que sobrevivieron los gigantes, incluido “viejos lobos” como Microsoft o Nokia, a quienes hoy el mundo mira con más recelo que nunca.
Los analistas coinciden en que es muy pronto para pronosticar cuántas fábricas cerrarán o qué negocios se venderán, pero el panorama es adverso y ver el comportamiento de sus acciones en las últimas semanas lo ratifica. Quienes menos se están alarmando son los que se dedican al mundo de la nube o la virtualización, comenta Martín D´Elia, gerente comercial de la región para EMC. “Es difícil de pronosticar. Sin duda tendrá un impacto, pero no en la región. En nuestros países la crisis nos encontrará en un buen momento económico y el impacto será menor”, aseguró. ¿Y la venta de PC? Tal como aclara Luis Felipe Núñez, gerente de relaciones públicas para Latinoamérica de HP, en nuestra región se seguirán vendiendo y dando soporte técnico sin problemas, aun cuando HP traslade esta división a otra empresa. Sin embargo, aclara Grados, la PC seguirá perdiendo la cuota frente a las laptops, smartphones y tabletas.
Un tema del alta gerencia
Según los analistas, la elección de los líderes que comandan estas grandes corpora-ciones es crucial para determinar si se seguirá recibiendo el apoyo de los inversionistas. Es por eso que quienes se dedican al hardware están contratando a gente con experiencia en software, como pasó en nokia, que contrató a un ex Microsoft, y Hp, que está a cargo de un ex sap.
En el caso de Hp, el anuncio de evaluar un nuevo hogar para la división de pc se dio justo cuando los inversionistas pedían “cortar cabezas” si no se anunciaba un giro en las estrategias.

jueves, 10 de marzo de 2011


La computación en nube será una realidad palpable este año


INTERNET. LO QUE BUSCAN ES HACER MÁS CONFIABLE ESTA TENDENCIA DE TRABAJO
Según expertos, recién en 10 años habrá un estándar para las empresas
Por: Marcela Mendoza Enviada especial
Jueves 17 de Febrero del 2011
Fuente El Comercio de Perú
SAN FRANCISCO [EE.UU.]. El ‘cloud computing’ o computación en nube (almacenamiento de datos y aplicaciones en un espacio de Internet en lugar de tenerlos en una computadora) ha sido ofrecida como una realidad palpable para el 2011.

“El año pasado les hicimos promesas; hoy venimos a probarles que se puede confiar en la nube”, afirmó Art Coviello, vicepresidente ejecutivo de EMC y presidente ejecutivo de la RSA, la división de seguridad de la citada empresa, durante su discurso de apertura de la Conferencia RSA 2011 que se realiza en esta ciudad.

ALTERNATIVA
En una conferencia de prensa el ejecutivo aseguró que hemos entrado en la era de Cloud TI (tecnologías de la información en la nube) porque “los negocios requieren reducir sus costos y ser más productivos, y han descubierto que pueden hacerlo en la nube, razón por la cual están migrando a ese entorno”.

Y si bien esta tecnología no es todavía un estándar que han adoptado todas las empresas –lo que ocurrirá, según sus pronósticos, dentro de diez años–, ya se percibe un incremento fuerte en la demanda que los ha obligado a hacer realidad las promesas de brindar adecuadas medidas de seguridad en este entorno en donde necesitan trabajar.

TENDENCIA GLOBAL
“El crecimiento de la demanda de este tipo de servicios –agregó Coviello– se percibe no solo acá, en Estados Unidos, sino que es una tendencia clara en Europa y Asia”.

Ejecutivos de la empresa de investigación Gartner refirieron, por su parte, que en Sudamérica también se hace evidente una tendencia creciente a sacar más provecho de la nube, que es valorada entre los gerentes de las empresas como una prioridad que se debe sacar adelante.

Los empresarios aún perciben que la nube puede ser insegura, admitió Art Coviello; sin embargo, dijo que esta situación cambiará. “Se han creado nuevas formas de lograr que la computación en la nube sea hasta más segura que la infraestructura física”, aseguró.

Incluso su optimismo lo animó a recomendar que se desplegaran aplicaciones críticas en entornos de nube porque se podrá cumplir con las estrictas condiciones de seguridad que este tipo de proceso de negocios requiere.

Alianzas estratégicas
¿Cómo harán las compañías de seguridad para convertir en una realidad la promesa de que la principal debilidad de la nube -su seguridad- desaparezca?

En la Conferencia RSA 2011, las diferentes compañías presentes ofrecieron sus nuevos productos como parte de la solución e incluso se animaron a ganar la confianza de los empresarios estableciéndose alianzas estratégicas.

Así, Mc Afee y RSA, la división de seguridad de EMC, se asociaron para atender juntas y en forma integrada las necesidad de seguridad de sus clientes en la nube.

Además, la oferta de RSA se completó con la presentación de un nuevo servicio que, dijeron, les permitirá cumplir sus promesas. Se trata de Cloud Trust Authority, que los hará comportarse como un árbitro encargado de supervisar a todos los jugadores – los proveedores de Internet- y vela por mantener a salvo a los clientes, lo cual harán con ayuda de la virtualización.

CLAVE
EMC Corporation es una empresa que desarrolla y provee soluciones tecnológicas de infraestructura de información, a fin de que las organizaciones transformen la manera en que compiten y generan valor a partir de su información.

martes, 8 de marzo de 2011


Caen las netbooks, suben las tablets


Aunque aún tienen potencial de venta y uso en los países en desarrollo, se profundiza la caída de las netbooks por el auge de las tablets.

POR STEVE LOHR - The new York Times 

Fuente: Revista Ñ

04 de marzo de 2011


¿Recuerda la última gran sensación en computación? No se le podría culpar por haber olvidado que fue la netbook, una pequeña computadora tamaño libreta con un precio bajo, aproximadamente 300 dólares.

Hoy, las tablets son las que están causando furor, entre ellas la iPad de Apple y un montón de nuevas opciones de rivales como Dell y Hewlett-Packard. Sin embargo, en 2009, las netbooks fueron vistas como la fuerza que sacudía a la industria, con el potencial para cambiar la economía de los negocios y perjudicar a Intel y Microsoft, los líderes tecnológicos.

Las cosas no resultaron así. Las ventas de netbooks fueron meteóricas en 2009, al multiplicarse por ocho en Estados Unidos, a 7.5 millones de aparatos, y triplicarse a nivel mundial, a 34 millones.

Las netbooks siguen disfrutando de ventas dinámicas en mercados conscientes de costos, entre ellos China y Latinoamérica, y en ventas a escuelas. Pero el tórrido crecimiento se estancó el año pasado.

En la temporada decembrina, las ventas minoristas de computadoras netbook en Estados Unidos cayeron un 38 por ciento en comparación con el año anterior, de acuerdo con la firma de investigación de mercado NPD. La historia de la netbook, de acuerdo con ejecutivos y analistas de la industria, ofrece lecciones de vida real sobre innovación, estrategia de negocios y comercialización.

Hasta cierto grado, la novedad (el iPad) reemplazó a la no tan novedad (netbook). Sin embargo, dicen los analistas, el efecto de las tablets es solamente parte de la respuesta. Las ventas de netbooks, señalan, empezaron a desacelerar aun antes de que la iPad saliera a la venta, en abril. Y los productos mismos difícilmente se sustituyen uno al otro; uno es pura eficiencia sin adornos, mientras que el otro es más bien un lujo atractivo y tiene un precio que empieza en los 500 dólares.

Más bien, es más probable que los fabricantes de netbooks hayan sobrevendido un producto que no tuvo el desempeño esperado. En EE.UU., dicen los analistas, las primeras personas que adoptaron la nueva tecnología ayudaron a impulsar la oleada de netbooks, atraídas por el peso ligero y el bajo costo. Sin embargo, los primeros compradores, dicen los analistas, tienden a ser quisquillosos.

"La seducción fue una computación ultraportátil y barata, pero los consumidores se dieron cuenta de que se tenía que renunciar a muchas cosas", dijo A.M. Sacconaghi, analista en Sanford C.

Bernstein & Company. "Al final, simplemente se quedó corta." La visión de una computadora personal portátil de muy bajo costo ha existido durante décadas. Sin embargo, el ímpetu que impulsó el desarrollo de las computadoras netbook de hoy provino, como sucede con frecuencia, de afuera de la industria establecida. En este caso, fue una organización sin fines de lucro, One Laptop Per Child, que en 2005 declaró su intención de fabricar computadoras de 100 dólares para los niños de países pobres, sin usar tecnología de Intel y Microsoft, los proveedores dominantes de chips y software de la industria. Esto era un riesgo, y todavía lo es, con las resistentes computadoras para niños costando aproximadamente 200 dólares.

Sin embargo, fue una idea atractiva que motivó a la industria a reconsiderar sus diseños y precios.

Un resultado fue una marcada caída en el precio de las computadoras notebook. En 2005, las laptops costaban en promedio casi mil dólares. Hoy, el precio promedio es de aproximadamente 465 dólares.

"Tuvimos un impacto en la industria como un todo al ayudar a impulsar los precios muy a la baja", dijo Mary Lou Jepsen, ex directora de tecnología de One Laptop Per Child.

Aunque hay una desaceleración en las ventas, el negocio de las netbooks está lejos de desaparecer.

La firma de investigación de mercados IDC predice que las ventas a nivel mundial caerán aproximadamente un 7 por ciento en 2011, pero aún así se venderían 32.9 millones de netbooks. Éstas representan más o menos el 10 por ciento del mercado de las PCs.

¿Significa la reducción de costos que las notebooks de mil dólares se volverán extintas? Para nada, aseguró John Taylor, director de comercialización de productos en A.M.D. Sin embargo, las máquinas más caras, agregó, tendrán que moverse hacia nuevos horizontes de computación.

viernes, 11 de febrero de 2011


¿Qué puede hacer tu ordenador mientras duermes?

Diez tareas tediosas, repetitivas o intensivas en recursos y tiempo que pueden llevarse a cabo mientras tienes tu cita con la almohada

Día 11/01/2011 
Fuente:  ABC de España
ARCHIVO


Aunque el hecho de utilizar un ordenador implica en general estar sentado frente al mismo, no hay que olvidar el enorme potencial de automatización que guarda cada sistema. Tareas tediosas, repetitivas o intensivas en recursos y tiempo pueden llevarse a cabo mientras tienes tu impostergable cita biológica con la almohada, para amanecer con el ordenador más actualizado y más seguro, o manteniéndolo activo en algo productivo. Aquí van algunas recomendaciones.
Por alguna razón, el Programador de Tareas de Windows es una utilidad casi ignorada por los usuarios. No es complejo programar una tarea: Lo realmente difícil es determinar cuándo se pueden ejecutar sin que afecten al usuario mientras está frente al ordenador. Las quejas sobre actualizaciones de Windows o escaneos completos del antivirus en momentos inadecuados han sido muchas, pero en vez de ajustar los parámetros de la tarea, terminan por borrarla completamente. Desde siempre insistimos en la necesidad de mantener desfragmentados nuestros discos duros y realizar respaldos, pero no podemos negar que ambos procesos son tediosos.
La "primera" desfragmentación de un disco duro puede demandar varias horas y un alto nivel de prioridad cuando se trata del disco de sistema. Por otro lado, los respaldos también consumen su cuota de tiempo, especialmente si debemos subir la información a la Web para mantenerla guardada en la nube. Si pueden mirar más allá de la idea de dejar encendido el ordenador toda la noche (sólo la carcasa y el módem o router, el resto no es necesario), entonces la automatización de tareas puede ahorrar mucho tiempo y frustraciones. Salvo un corte de energía o una falla catastrófica de hardware (algo que puede pasar en cualquier momento), no debería haber inconvenientes con mantener encendido al sistema. Veamos qué se puede hacer.
1) Desfragmentar
Nuestra primera opción es la más obvia, y una de las que mayor impacto puede tener en el rendimiento de un ordenador. Siempre que hablemos de discos duros convencionales, la desfragmentación de archivos tiene más de obligación que de cualquier otra cosa, fundamentalmente bajo plataformas Windows. El desfragmentador integrado en Windows ofrece varias opciones para programar esta tarea a través de uno o más discos, pero también podrás encontrar funciones similares en desfragmentadores hechos por terceros. El gratuito Defraggler sigue siendo una excelente alternativa para estos casos.
2) Antivirus
En sesiones ordinarias, un antivirus debería ser capaz de atrapar al vuelo cualquier bicho que intente infectar al sistema, pero siempre existe la posibilidad de que algún remanente quede oculto entre las carpetas del disco duro. El proceso de revisión completa en un antivirus es una de las actividades más tediosas que un usuario puede encontrar, por lo tanto es inevitable recomendarla como candidata a programación automatizada. Su frecuencia tampoco necesita ser extrema: Una vez por semana debería ser suficiente.
3) Intercambio de archivos
De todo tipo, bajo cualquier red, sin importar el cliente o el sistema operativo. De hecho, ni siquiera es necesario programar la actividad. Basta con dejar abierto el cliente e irse a dormir. Las historias de ordenadores encendidos durante días intercambiado archivos no son ninguna fábula. Si un usuario logra coordinar con precisión estos momentos de "vacío" en sus sesiones diarias, esa terrible imagen ISO a descargar puede convertirse en un paseo por el parque. Y esto también incluye a la descarga directa.
4) Conversión de vídeo
Es sencillo: Tienes la edición "ultra-mega-súper" extrema del "Director's Cut" revisado de "Avatar", y quieres verla en otro dispositivo que no sea el ordenador, el reproductor de DVD o el Blu-ray. A menos que prefieras copiar imágenes ISO enteras y sin procesar a estos dispositivos, la conversión y recompresión del vídeo es la única opción. Factores como duración del vídeo, resolución y filtros pueden incrementar o reducir de forma considerable la demora en la conversión, y aunque los ordenadores han avanzado mucho en este aspecto, configuraciones extremas de calidad tienden a demandar mucho tiempo de procesamiento.
5) Respaldos de información
"Backup", una de las palabras más temidas entre los usuarios. Por un lado, están los que no saben hacerlo. Por el otro, están los que saben hacerlo pero se niegan sistemáticamente a llevarlo a cabo debido al tiempo que consume. En primer lugar, cuanto más organizado sea el usuario con sus datos, más sencillo será hacer el respaldo. Y en segundo lugar, servicios como Dropbox o Mozy ofrecen funciones de respaldo automatizadas. Los respaldos programados también sirven para aquellos que prefieren guardar sus datos en forma local, como por ejemplo un disco duro externo.
6) Actualizaciones de sistema
Si tienes desactivadas las actualizaciones de Windows, la gran pregunta sería "¿por qué?", pero tampoco queremos ser cerrados al respecto. No todas las condiciones son iguales para todos los usuarios, y también hay que reconocer que la política "haz-lo-que-te-digo-y-no-preguntes" por defecto del Windows Update puede dar problemas en ciertas ocasiones. Aún así, las actualizaciones de Windows, en la gran mayoría de los casos, requieren de un reinicio del sistema una vez que se han instalado. Si dejas el ordenador encendido, nada mejor que programarlo para que opere de madrugada, sin afectar tus sesiones diarias.
7) Folding@home
El ordenador puede ser productivo para ti, pero también puede serlo para los demás. Folding@home lleva más de diez años en operación, y se ha convertido en el nodo de procesamiento computacional más poderoso del planeta. No importa si posees un solo núcleo o varias tarjetas de vídeo en SLI, podrás aportar tu grano de arena en Folding@home, pero si tienes una PlayStation 3, también es posible hacerlo a través de dicho sistema. Con unas pocas horas diarias de F@H serás parte de un esfuerzo global para derrotar enfermedades y condiciones que afectan la calidad de vida de la raza humana.
8) Juegos vía Steam
La amplia cantidad de títulos disponibles y las increíbles ofertas siguen haciendo de Steam el sistema de distribución de juegos más importante del momento. Pero aún con todas sus virtudes, la magia de Steam se ve limitada a qué tan rápido puedes descargar el juego e instalarlo en tu sistema. En muchas ocasiones, los tiempos de descarga por Steam son afectados sobrecargas en los servidores, y el promedio de 4.5 GB en juegos de alto calibre no ayuda en nada. Si utilizas Steam, nada mejor que dejar tu sistema encendido durante la noche para obtener esos títulos pesados.
9) Compilar código y/o renderizar
Aquellos que prefieren hacer su propio software en vez de descargarlo saben muy bien que el tiempo de compilado para cierto código puede convertirse en toda una tortura. El mismo concepto se puede aplicar a quienes hacen serios procesos de renderizado. Hoy en día tenemos buen hardware, pero estas tareas están en la cima de la pirámide, y demandan respeto por esencia propia. Una vez hechos los cambios pertinentes, ejecuta la operación, deja que el ordenador trabaje, y descansa un poco. Tendrás tiempo de sobra.
10) Apagarlo por completo
El atajo fácil. La ley del menor esfuerzo. Apagar el ordenador no deja de ser algo razonable para quien no necesita usarlo más, pero hay que prestar especial atención sobre el término "por completo". Aún si en apariencia se ve apagado, lo cierto es que un sistema puede llevarse algún que otro vatio gracias al llamado "consumo vampírico". Este efecto puede encontrarse en una gran cantidad de dispositivos modernos, y es una de las causas más importantes del desperdicio de energía. Ya existe hardware capaz de entrar en un "estado cero" de consumo, pero el mejor remedio es y será un interruptor manual. Con eso, el "cero" lo pones tú.
Si bien requieren de energía para funcionar, la ventaja de los ordenadores es que no necesitan dormir y puedes dejar que el ordenador continúe con todo lo que ha quedado pospuesto durante el día. El mantenimiento surge como la opción más lógica, debido a la demora en los procesos. Compartir archivos puede tener una utilidad personal muy profunda, mientras que el resto de las opciones tienen su atractivo propio. A quienes les preocupe el consumo, deben recordar que no es necesario dejar la pantalla encendida, y hay muchas aplicaciones capaces de apagar el sistema una vez que han finalizado. No dejes de explorar las opciones disponibles.

¿Cuánta información almacena la humanidad?

Casi 300 billones de megabytes en un año: si se guardara en CDs, la pila alcanzaría hasta más allá de la Luna

Día 10/02/2011 
Fuente: ABC de España
Pulse para ver el video
Pulse para ver el video
La información que almacena el mundo
La capacidad tecnológica que tiene la humanidad para almacenar información es gigantesca, pero no inconmensurable. Un equipo investigadores de la Universidad de Southern California y de la Open University de Catalonia ha conseguido calcular, por primera vez, la cantidad de información que manejamos a lo largo y ancho del mundo en nuestros dispositivos digitales y analógicos. Esto es, todo el conocimiento que guardamos y comunicamos en diferentes soportes, desde los libros, los periódicos o el correo tradicional hasta los vídeos, la televisión, internet, los teléfonos móviles o las tarjetas de crédito. Todo ese volumen de datos se tradujo en 2007, año de referencia para el estudio, en 295 billones de megabytes (295 exabytes, un número con veinte ceros) comprimidos de forma óptima. La revista «Science» publica los resultados.
¿Un número excesivamente grande para hacerse una idea de lo que supone? Quizás sirva de ayuda decir que un bit es la unidad mínima de información y que un megabyte equivale a 8 millones de bits. Para poner esos números en perspectiva, los científicos ponen un par de ejemplos: si toda esa información fuera guardada en un CD, la pila de compactos llegaría desde la Tierra hasta más allá de la Luna.Tanto como 315 veces el número de granos de arena que existen en el mundo. Puede parecer mucho, pero la naturaleza es muchísimo más potente: el número de bits almacenados en las moléculas de un solo ser humano adulto es aún mayor.

Capacidad duplicada


Los investigadores analizaron las tecnologías digitales y analógicas durante el período comprendido entre 1986 y 2007, y los resultados reflejan nuestra transición casi completa hacia la era digital. Casi el 94% de nuestra memoria ya tenía ese formato hace cuatro años. Martin Hilbert, de la Universidad de Southern California y su colega Priscila López, de Catalonia, estiman que durante las dos últimas décadas la capacidad de las computadoras en general (incluidos los PCs y los teléfonos móviles) se ha duplicado cada 18 meses. En 2007, los ordenadores enviaron tantas instrucciones por segundo que, si se tuvieran que escribir a mano llevaría 2.200 veces el período desde el Big Bang. Además, la humanidad envió 1,9 zettabytes de información a través de su tecnología de transmisión, como televisores y GPS. Esto equivale a que cada habitante del planeta lea 174 periódicos al día.
En todo el tiempo examinado en el estudio, la capacidad de computación en todo el mundo creció un 58%, diez veces más rápido que el PIB de los Estados Unidos. «Estas cifras son impresionantes, pero minúsculas en comparación con cómo la naturaleza se encarga de la información», afirma Hilbert. «En comparación con la naturaleza, no somos más que humildes aprendices. Sin embargo, mientras que el mundo natural es alucinante en su tamaño, sigue siendo bastante constante. Por el contrario, el mundo de las capacidades tecnológicas de procesamiento de la información está creciendo a un ritmo exponencial».