Eric Schmidt, ex-CEO y actual presidente del directorio de Google, es una voz de peso dentro de la compañía. Por eso llaman la atención sus últimas declaraciones respecto a Google Glass, las gafas para realidad aumentada frente a las que él no esconde sus críticas, que sin duda reflejan el sentir de muchas personas alrededor del mundo.

Porque según dijo en una conferencia que llevó a cabo en la Universidad de Harvard, hablarle a las gafas es “la sensación más extraña”, admitiendo que hablarle al aire se ve raro y poco natural, dado lo inusual de la tecnología de control a través del reconocimiento de voz.

De todas formas, dudamos que esto sea un impedimento para que la gente se haga con uno de estos dispositivos en el futuro. Después de todo, hoy en día muchas personas ya le hablan al aire gracias a diversos sistemas de “manos libres” para el teléfono móvil, por lo que no somos ajenos a esta clase de “extrañas sensaciones”.

Hace muy poco los Google Glass comenzaron a llegar a un grupo selecto de usuarios para que los prueben y así Google pueda terminar de detallar el producto. Sin embargo, no paso mucho tiempo cuando un par de desarrolladores lograron rotearlos.

Cuando supimos que los Google Glass usaban Android como sistema operativo base te comentaba que muchas puertas podrían abrirse para que estas smartwatch llegaran al mercado con bastantes novedades.

Hoy la naturaleza de Android ha quedado descubierta ya que Jay Freeman, más conocido como Saurik, quien es reconocido como el desarrollador de Cydia para iOS aseguró en su cuenta de Twitter que logró tener acceso al superusuario del sistema operativo de las gafas.

Según comenta Freeman, fue relativamente sencillo liberar los Google Glass, pues tardó solo unas cuantas horas en engañar al dispositivo para que creyera que se estaba ejecutando en una emulación de software en lugar de que estaba en el dispositivo, y como las emulaciones son para probar el dispositivo, tiene permisos de root.

Esto fue logrado gracias a un exploid en Android 4.0.4 y todavía no sabemos si este mismo método servirá para el modelo que se comercializará el próximo año.

Por ahora, estemos muy atentos, porque esta noticia puede abrir muchas puertas en un futuro.


Seguramente no sea la primera vez que oyes hablar de la computación cuántica, o de la informática cuántica, o del tan misterioso y potente ordenador cuántico. La palabra “cuántica” normalmente se utiliza para atraer dinero e interés y en el mundo de la tecnología suele venir acompañada siempre de una aureola de misterio que parece aumentar su importancia. ¿Pero en qué consiste realmente todo esto de la cuántica y por qué se dice que viene a revolucionar el mundo de los ordenadores?

Para entender como empezó todo debemos viajar hasta encontrarnos con los jóvenes físicos de los años noventa, quienes empezaron a debatir sobre las implicaciones que podía tener la física cuántica en la computación. Apenas era una entelequia, una simple posibilidad teórica que nadie sabia cómo se podía realizar. Fue gracias a algunos teóricos que se pasó de algo abstracto a una posibilidad real, que a pesar de los intentos no se ha logrado aún en nuestros días.

Los hombres que propusieron el concepto de las computadores cuánticas fueron algunos de los físicos más reputados (y controvertidos, todo sea dicho) de la época; Richard Feynmann, (California Institute of Technology, de Pasadena); Paul Benioff, (Argonne National Laboratory, de Illinois); David Deutsch, (Universidad de Oxford, en Inglaterra), Charles Bennett, (T.J. Watson Research Center de IBM en Nueva York) y Peter Shor (AT & T Research), este último fue quién describió en 1994 el primer algoritmo cuántico diseñado para aprovechar la potencia de estas nuevas computadoras para la factorización de números grandes de una forma muchísimo más rápida.

A él le siguieron otros físicos como los experimentalistas Isaac L. Chiang (IBM y Gershenfeld) y Mark G. Kubinec (Universidad de Berkeley) quienes se lanzaron a construir un ordenador cuántico simple capaz de ejecutar lo que sus compañeros habían modelizado. En 1998, en la Universidad de California en Berkeley, consiguieron crear 5 bits cuánticos (qubits) capaces de ejecutar mediante resonancia magnética el algoritmo de Grover a partir de átomos de hidrógeno y cloro procedentes del cloroformo, años después alcanzarían los 7 qubits con un método similar.

La modelización y búsqueda de nuevos algoritmos continua hasta día de hoy, y son muchos los físicos que han decidido dedicarse a la investigación de esta nueva rama que está en plena ebullición. La conocida Ley de Moore invita a pensar que dentro de unos años tendremos un tamaño tan pequeño de nuestro microprocesadores que se nos hará imposible reducirlos aún más sin vernos interferidos por las leyes que gobiernan la escala atómica y llegados a este punto las reglas del juego cambian, hasta tal punto que muchas de las ideas preconcebidas y deterministas que tenemos del mundo no pueden aplicarse a los procesos cuánticos.

Qubits, las unidades básicas de la información cuántica

Las ventajas que encontramos en un ordenador cuántico no son otra que las que nos proporciona trabajar con qubits, el análogo cuántico del bit clásico. Un ordenador tradicional codifica la información en binario, la convierte en ceros y unos y nos la devuelve según lo que le hayamos pedido, nuestro nuevo ordenador hace exactamente lo mismo, pero gracias a las reglas de la cuántica es posible hacerlo a una velocidad “infinitamente” superior.

¿Qué es lo que pasa con la cuántica para que hayan estas propiedades? Básicamente lo que esta parte de la física nos dice es que cuando estamos tratando escalas atómicas la posición, energía y demás magnitudes están indeterminadas (no podemos establecerlas en un marco concreto), esto provoca que por ejemplos las partículas subatómicas o en nuestro caso los bits no puedan definirse unívocamente como un cero y un uno, sino que tendremos un vendaval de posibilidades entre ellos, y aquí llega lo sorprendente, podemos trabajar con el estado que representa la indeterminación, pues no solo es una representación matemática sino un estado más en el que pueden encontrarse los objetos atómicos. Así que podemos trabajar con más estados que antes. Un vector de n qubits ahora puede representar a la vez 2n estados, de forma que un vector de dos qubits representaría los estados 00, 01, 10 y 11.



Tenemos muchos sistemas con dos estados discretos distintos, y cualquier de ellos podría servir como qubit, un spin de electrón que apunta arriba o abajo, o un spin de fotón con polarización horizontal o vertical serían buenos ejemplos. Con 8 bits, un Qbyte como el que consiguieron en 2005 con trampas de iones, tenemos de sobra para asignar un número a cada signo del teclado, y así digitalizar cualquier texto, la misma historia pasa con los qubits, pero hay pequeñas diferencias que como hablaremos después provocan grandes quebraderos de cabeza.

La velocidad para realizar factorización de grandes números se incrementa enormemente con los ordenadores cuánticos. Utilizando algoritmos cuánticos de factorización diseñados para aprovechar estos estados extra se estima que realizaríamos operaciones que un sistema normal tardaría unos 4×10^16 años en apenas ocho meses, y esto basándonos en un algoritmo idealizado en 1994. La eficiencia de estos algoritmos se basa en el ritmo en que se incrementa el tiempo de resolución de un problema a medida que aumenta el tamaño de los datos de entrada, y esta diferencia de tiempo es la que nos permite distinguir realmente si estamos ante un verdadero ordenador cuántico o ante un número gigantesco de computadores normales. Dicho de otro modo, estos algoritmos cuánticos puede que arrojen resultados similares con un número pequeño de qubits, pero al aumentar el número es donde empezamos a poder apreciar las diferencias entre unos y otros, haciéndose esta cada vez más grande.

Diversos problemas en el intento de fabricar el primer ordenador cuántico

La parte teórica ha sido bien estudiada y se ha avanzado muchísimo desde los primeros algoritmos  lo que falta es la tecnología para escalarlo y realizarlo. Los bits son robustos, pero los qubits son sumamente frágiles ante cualquier intento de medirlos o inspeccionarlos. La obtención de información sobre un sistema cuántico generalmente lo perturba. Con qubits debemos tener un cuidado extremo a la hora de descodificar, pues si se produce un error el resultado es completamente aleatorio. Esa es otra de las cosas de la cuántica; la medición determina el estado, cualquier interrupción del proceso hace desaparecer la decoherencia que permite la computación cuántica.

¿Qué debe tener un buen computador cuántico a fin de realizar una implementación cuántica correcta?
 ¿Cuáles son los requisitos?
  • Es necesario un sistema de qubits bien caracterizados, que puedan ser medidos específicamente.
  • Estos deben ser direccionables individualmente, interactuando entre si para formar compuertas lógicas de propósito general.
  • Se debe poder inicializar un conjunto universal de puertas cuánticas.
  • Se debe tener la posibilidad de extraer los resultados computacionales.
  • Es necesario un tiempo de coherencia duradero.

Estas premisas sin embargo son demasiado estrictas para conseguir hoy en día. Dependiendo de la manera en que se cuenten, se han fabricado ordenadores cuánticos con muy pocos qubits. Según nos cuenta Ignacio Cirac (el referente español y uno de los mayores expertos en la materia) – “La idea es llegar a 1.000 o 2.000 iones, con los que se podrían hacer cálculos que son imposibles con los ordenadores actuales; por ejemplo, se podrían caracterizar algunas reacciones químicas en las que participen 10 o 20 átomos, y ver como optimizar los productos a los que dan lugar”.

En el año 2008, un equipo de científicos consiguió almacenar por primera vez un Qubit en el interior del núcleo de un átomo de fósforo, y pudieron hacer que la información permaneciera intacta durante 1,75 segundos, consiguiendo un tiempo de coherencia duradero como necesita el quinto punto.

Pero entonces llegamos a la empresa D-Wave, vendida recientemente a Lockheed Martin por 10 millones de dólares, consiguió en solo dos años avanzar de 16 a 128 qubits, consiguiendo incluso publicar varios artículos en Nature sobre el tema y apropiándose del título de primer ordenador cuántico comercial fabricado. Pero hay algunos críticos que se preguntan si verdaderamente es un ordenador cuántico. Los chicos de D-Wave creen que su sistema pierde la decoherencia de forma casi inmediata en la base de autoestados de la energía (en las fugas térmicas), pero que creen que no la pierde en la base “computacional” (se producen algunos entrelazamientos durante las etapas intermedias del algoritmo). Esta idea es la que subyace a la computación cuántica adabiática y la razón por la que desde D-Wave se cree que tienen en sus manos un ordenador cuántico. Si han conseguido reducir el tiempo de implementación del algoritmo y ello significa entrelazamiento entre varios qubits puede ser un gran avance, lástima que no hayan conseguido avanzar más desde entonces y sea tan difícil estudiarlo en profundidad.

¿Para cuándo tendremos las ventajas de la computación cuántica con nosotros?

“Hacer predicciones es muy difícil, especialmente cuando se trata del futuro.” – Niels Bohr. ¿Qué podrían haber contestado en los años veinte sobre para cuando tendríamos con nosotros ordenadores clásicos escalables? No fue sino hasta los 80 donde la electrónica dio un gran salto y no ha sido hasta entrado este siglo donde la microelectrónica ha invadido nuestros bolsillos. Cuando nos preguntamos cuando tendremos un ordenador cuántico en nuestra casa debemos tener en cuenta una vez más que es una cuestión de mera dificultad tecnológica. Necesitamos pulir nuestras herramientas para conseguir un gran número de qubits (sean fotones, núcleos atómicos o cualquier otra cosa que puedan ser) y poder luchar contra la decoherencia que pr0voca que no podamos tener acceso a esos estados. Ahora mismo esto parece prácticamente imposible, pero la historia ha demostrado que si se invierte la tecnología nos puede ofrecer cosas inimaginables.



El estudio sobre la computación cuántica ha sido la razón de los recientes premios Nobel de física (2012) y de la medalla Wolf (que ha sido para Cirac), aunque no vayamos a pensar que solo en el mundo académico se tiene en cuenta. Google, por ejemplo, utiliza un algoritmo que, se rumorea, es el cálculo numérico más grande llevado a cabo en cualquier parte del mundo. Con la red en constante expansión, varios investigadores de la Universidad de Carolina del Sur (USC) han propuesto -y demostrado la viabilidad- de la utilización de ordenadores cuánticos para acelerar los procesos de búsqueda, en lo que se conoce como el Quantum Page Rank.

En el mundo de las telecomunicaciones también se habla de teleportación cuántica, que permite el intercambio de información entre dos puntos de forma instantánea sin importar la distancia que los separe y de criptografía cuántica un sistema de seguridad completo y tan protegido que ni siquiera con toda la potencia de los ordenadores cuánticos podría ser hackeada. Por su parte IBM nos promete que estamos un poquito más cerca gracias a sus qubits de alta coherencia en tres dimensiones, con tiempos de hasta 100 microsegundos, suficientemente estables como para medir, trabajar y comprobar si es posible aplicar los diversos algoritmos cuánticos y conseguir buenos tiempos.


Las propiedades especiales de los qubits permitirá que los ordenadores cuánticos trabajen en millones de cálculos a la vez, mientras que un PC de sobremesa normalmente solo puede manejar un mínimo de cálculos simultáneos. Los números asustan, por ejemplo, un único qubit de 250 estados contiene más bits de información que átomos hay en el universo y de complejidades dignas del cerebro humano. Una escala de potencia y números que provocará que pensar en los nanómetros de los chips de los smartphones sea una nimiedad en comparación. Una abismal potencia que ahora mismo se utiliza como reclamo para conseguir atención y financiación, pero no debe cegarnos en la importancia que puede tener en el futuro de la computación.

Es curioso ese momento, durante la época escolar, donde te sorprendes al conocer que existen casi 7.000 lenguas diferentes en todo el mundo, aunque algunas de ellas se encuentren casi en extinción, para desgracia de la variabilidad cultural. Hoy os hablaré de un caso realmente curioso, pues se trata de una lengua que no está aún extinguida, pero le falta muy muy poco, pues solo la hablan dos personas en todo el planeta, y encima se han enfadado hace poco entre ellos. Se trata del Ayapaneco, una lengua que se encuentra en la “fase de rápida desaparición”, donde se encuentran también entre 400 y 1.500 lenguas más, según la Unesco.

Para ser concretos, el idioma se llama Zoque-Ayapaneco, y sus dos únicos hablantes tienen 69 y 75 años respectivamente en la actualidad. Estos dos individuos viven en Ayapa, un estado suroriental de Tabasco, en México.

Estos dos únicos hablantes, son Isidro Velázquez y Manuel Segovia, los cuales son los fieles y únicos guardianes de esta variante de la familia Mije-Zoque. Para rizar el rizo, resulta que esta lengua ha ido desapareciendo sobre todo por la discriminación que sufrían y sufren sus hablantes, como comenta el hijo del propio Manuel Segovia, de 30 años de edad y con el mismo nombre de su padre:


Pero si esto ya parecía malo, lo que sucede ahora es peor. Resulta que Isidro y Manuel no se hablan entre ellos. Si si, los únicos hablantes y conocedores de esta lengua no se dirigen ni una palabra. Según Daniel Suslak, un antropólogo lingüista de la Universidad de Indiana que tiene como proyecto conseguir un diccionario de ayapaneco, estos dos individuos no tenían mucho en común, por lo que se desconoce si existe una causa clara para que no se hablen entre ellos.

Por el momento Manuel Segovia sigue hablando en ayapaneco con su hijo y su esposa, pero son muy pocas palabras. Pero Isidro no suele usarlo regularmente, lo cual es una pena.

Entre las causas de la progresiva desaparición de la lengua estuvo la educación en español a mediados del siglo XX, momento en el cual se prohibió a los niños hablar cualquier otro tipo de lengua. Además, la urbanización y la migración en la década de 1970 acabo por dar el golpe mortal a este lenguaje, pues desintegró el núcleo de habitantes que hablaban el idioma.

La parte buena es que Manuel Segovia (hijo) si que tiene como proyecto intentar enseñar este lenguaje indígena a los más pequeños, pero no parece haber mucha predisposición por parte de los demás habitantes del pueblo para aprender. Por desgracia, si justamente los dos individuos que saben hablarlo no lo hacen entre si, ni tienen nada en común, ni ponen absolutamente nada de su parte, lo más probable es que este idioma esté definitivamente condenado a la desaparición tras su muerte. Esperemos que Suslak sea capaz de elaborar el diccionario de ayapaneco para, al menos, tenerlo en el recuerdo.

Vía | The Guardian.
En el aniversario del accidente nuclear de Chernobyl, las medidas de seguridad y prevención son elementos indispensables para dejar de mirar con recelo la producción de este tipo de energía.
 

El 26 de abril de 1986, el reactor número 4 de la central nuclear de Chernobyl (Ucrania) estalló, provocando uno de los accidentes nucleares más importantes de la Historia reciente, además de lo sucedido en Fukushima en 2011. La tragedia de Chernobyl cumple hoy 27 años, y es importante preguntarse qué hemos aprendido en estos años, y con qué herramientas podemos afrontar el futuro.

El accidente de Chernobyl nos hizo mirar con respeto a la energía nuclear, pero no debemos encarar estos problemas gravísimos, provocados en parte por la falta de trasparencia, con miedo hacia todo el sector nuclear.

Así lo entiende la propia NASA, que hace unos días dio a conocer los resultados de un estudio, en el que afirmaba que la energía nuclear había salvado más vidas que los fallecimientos que había causado por desastres nucleares. El uso de este tipo de energía frente a los combustibles fósiles, de acuerdo a este análisis, habría evitado la muerte de miles de personas.

En particular, si sustituyéramos la energía nuclear por gas hasta 2050, la NASA estimó que se producirían alrededor de 420.000 fallecimientos más. Si usáramos carbón como combustible, mucho más contaminante que otras opciones, el número de muertes llegaría incluso a los 7 millones de personas. Por tanto, no se trata de aborrecer la energía nuclear por los accidentes que hayan ocurrido, que han sido gravísimos, y de los que tenemos que tomar nota. Necesitamos "prevenir antes que curar", y poner de manifiesto que las medidas de seguridad son imprescindibles.

En este sentido, hace unas semanas el Pentágono de Estados Unidos anunciaba que continuaba las investigaciones para desarrollar nuevas tecnologías de detección de radiación nuclear. Entre los dispositivos con los que contamos actualmente, se encuentran los teléfonos desarrollados en la Universidad Purdue, de India, que buscan crear una red móvil de detección de trazas de radiación (por pequeñas que sean), acoplando sensores de radiactividad a los teléfonos.

El problema habitual de los sensores nucleares es el alto coste económico que conlleva producirlos. Sin embargo, la introducción de la nanotecnología en la investigación militar y preventiva podría hacer frente a estos problemas. Para ello, investigadores de la Universidad de Nevada consiguieron nanopartículas capaces de ser "sembradas" en diversos materiales plásticos, con el fin de actuar como minisensores ante cualquier mínimo nivel de radiactividad que pudieran encontrar.

En Estados Unidos este año se destinarán entre 400.000 y 6 millones de dólares para buscar estrategias de prevención y detección de problemas nucleares. Por su parte, la Unión Europea firmó en 2010 un acuerdo por el que promoverían iniciativas de prevención y detección de radiactividad con un programa económico de 10 millones de euros. En Mexico también existe una preocupación importante sobre la seguridad nuclear, por ello cada vez se requieren más profesionales para este sector.

Iniciativas que ayudan, sin duda, a mirar con menos recelo a la producción de energía nuclear. Garantizar la seguridad y prevenir cualquier problema de radiactividad ha de ser una obligación fundamental de gobiernos e industria, para evitar un nuevo Chernobyl.
 Aunque la idea parezca un tanto descabellada, la compañía finlandesa ha registrado una tecnología que mediante el uso de tinta magnética para tatuar, los usuarios podrían sentir en su propia piel y mediante vibraciones, una nueva llamada o notificación de su dispositivo móvil.

Y es que en esto de las patentes, podemos ver casos aún más rocambolescos como una bufanda para conducir con el brazo por fuera o una máscara para dieta. En los últimos años, se ha dado el caso que muchas compañías tecnológicas están patentando muchas ideas con el objetivo de quedarse cuando antes con la idea.

Recordemos y tengamos también muy en cuenta que, debido al funcionamiento del sistema de patentes en muchos países, las compañías tienen departamentos dedicados sólo a idear y patentar ideas que podrían nunca llevarse a cabo, con el simple objetivo de que si a otro se le ocurre materializarla, se le pueda cobrar por su uso.

Cada vez más conectados con la tecnología

No cabe duda que la tecnología está cada vez más presente en nuestras vidas, tanto es así que muchos de los dispositivos electrónicos nos resultan de fundamental necesidad para llevar a cabo nuestro día a día. Está el claro ejemplo de los smartphones, unos terminales móviles que se han hecho prácticamente una herramienta con muchos usos tanto laborales como de ocio.

A continuación se muestra las imágenes de las patente presentada por Nokia, en donde podemos observar como sería la zona tatuada (abdomen y muñeca), y en dicha zona notaremos mediante vibraciones una nueva notificación o una llamada entrante.


En la patente presentada por Nokia, se explica que se utilizará una tecnología que permitirá a los tatuajes recibir ondas magnéticas emitidas por los dispositivos móviles. Asimismo, estas ondas harían que los tatuajes creen estímulos perceptibles por la persona para informarle de batería baja, mensajes o llamadas, entre otros.

El estímulo perceptible podría consistir en una vibración, una vibración en la imagen aplicada en la piel del usuario, por ejemplo. En referencia a la tinta empleada para este tipo de tatuajes, la misma estaría formada por compuestos magnéticos. Además, también podría variarse la intensidad de la vibración y su duración.

¿Quiénes quieren haceree este tatuaje?

Fuente | CNNMoney

Las operadoras tanto tradicionales como virtuales (OMV), están constantemente ideando nuevas estrategias para poder captar al mayor número de clientes posible y por supuesto, de estar en lo más alto del mercado. Algo que últimamente se ha convertido en una batalla sin pausa.

Actualmente, las ofertas se basan en ofrecer los precios más bajos posibles a la vez que competitivos, en servicios como la televisión, telefonía móvil, telefonía fija, y la banda ancha fija y la móvil.

Pero además, muchas compañías de telecomunicación están sacando el máximo provecho a las ofertas que combinan en varios casos, de dos a cinco servicios. Un claro ejemplo lo podemos ver en la famosa oferta de Movistar “todo en uno”, Movistar Fusión que podemos ver detallada a continuación.
  • Cuota mensual de 49,90 euros
  • Llamadas: ilimitadas a fijos nacionales + 550 minutos/mes a móviles
  • Cuota de línea incluida
  • Internet: conexión ADSL con 10 Mbps de descarga y 800 Kbps de subida
  • Llamadas móvil: 500 minutos/mes a cualquier número y hora
  • SMS: mensajes de texto ilimitados
  • Internet móvil: 1 GB de datos a máxima velocidad (superado se rebaja a 64 Kbps)
  • Contrato de permanencia de 12 meses
  • Impuestos no incluidos

Los servicios empaquetados de las compañías de telecomunicación

Como anteriormente mencionábamos, la tendencia que está cogiendo el mercado y también los usuarios, es ofrecer y contratar en una única tarifa mensual con varios servicios como conexión a Internet, telefonía o televisión.

Y en referencia al título de este artículo, el cliente 5 play, es denominado como aquel cliente que contrata este tipo de ofertas siendo 5 los servicios contratados en la misma. Si nos fijamos en los datos revelados por la CMT (Comisión del Mercado de las Telecomunicaciones), los datos que se observan son los siguientes:


¿Eres de los que contratan varios servicios con la misma compañía o los prefieres por separado?

Fuente | CMT Blog

El atentado en Boston ocurrido en la final del Maratón fue un hecho realmente lamentable. Como comentamos en anteriores artículos , el medio con mayor información en el momento fue Reddit, sitio muy popular de noticias sociales.

Así como fue de bueno para informar minuto a minuto sobre lo que ocurría en el momento, una sub sección en reddit (subreddits) fue creada y llamada findbostonbombers. Muchos usuarios se unieron a esta denominada “cacería de brujas”, compartiendo fotografías e imágenes de este trágico suceso.

El objetivo era identificar a los responsables del hecho, grande fue el esfuerzo que lograron reunir en una lista a los posibles sospechosos. Entre ellas, figuraba el nombre del estudiante hindú Sunil Tripathi, hasta hace pocos días, desaparecido y sindicado por esta cacería de brujas, como posible autor del atentado.
Incluso, aún después de conocerse a los culpables, los hermanos Tamerlan y Dzhorkhar Tsarnaev (a quienes las autoridades ya buscaban), las noticias con estos rumores continuaban expandiéndose por toda la red.

Cacería de brujas sin éxito y disculpas de Reddit

Pese a la persistencia por parte de los usuarios de Reddit, no tuvieron éxito. No sólo Sunil Tripathi, sino otras personas de la lista nada tuvieron que ver con el atentado en Boston. Salió mal, y se equivocaron de arriba a abajo.

Lo que aparentemente comenzó como una ayuda social para determinar a los responsables del atentado, usando fotografías e imágenes compartidas (entre otros medios) por redes sociales, lo único que logro fue todo lo contrario.

El director general de Reddit, Erik Martin, recientemente ha mostrado sus disculpas públicas a través del blog del medio, con estas palabras: “Aunque comenzó solo con buenas intenciones, una parte de la actividad desarrollada en Reddit alimentó la caza de brujas y especulaciones peligrosas que acabaron por tener consecuencias muy negativas para personas inocentes”. Erik Martin, dijo que se disculpó ante la familia Tripathi el viernes y prometió una revisión de su política.


Peligros de internet y lamentables noticias

Hasta el Martes de esta semana, el estudiante hindú  sospechoso según la lista de Reddit, se encontraba desaparecido pero finalmente fue encontrado muerto en Providence, esto, según confirmación de los medios. No sé conocen los detalles exactos ya que la investigación sigue en curso, pero pone en manifiesto el peligro de estas cazas de brujas.

Lamentable noticia, sobretodo porque se confirma todo lo malo de ese ambiente lleno de especulaciones con consecuencias claramente negativas. La tecnología es usada con fines correctos en casos como estos (como la herramienta que Google lanzó para ayudar a encontrar a desaparecidos en las explosiones), pero en otros casos, es usada de manera totalmente indebida, violando todo límite y el debido cuidado con que casos como éste deben de ser tratados.

¿Es esta una evidencia más de los peligros que supone el mal uso de la Internet?

Fuente| Poynter y Theatlantic

Gigaset no deja de lado a los entornos complicado para un teléfono con tecnología DECT y ha presentado su nuevo modelo para talleres, almacenes y en general profesiones donde el terminal va a estar sometido a golpes, polvo y salpicaduras.

El Gigaset R410H Pro tiene una carcasa resistente y es capaz de repeler el polvo y agua. Pese a ello, no se olvida del sonido, y cuenta con calidad HD. Su pantalla es a color, lleva teclado ergonómico con letras grandes, donde hay 9 teclas programables.

Este DECT de Gigaset es capaz de almacenar hasta 150 contactos, tiene marcación directa desde la lista de llamadas perdidas y lleva manos libres, además de salida de auriculares. En cuanto a su autonomía, es de 12 horas en conversación.

El precio de este equipo es de 90 euros.

Más información | Gigaset.


Qualcomm revolucionó su familia de procesadores en el pasado CES. No tanto desde el punto de vista técnico, si no en la nomenclatura: cambiamos de los conocidos ‘S4’ a cuatro familias bien diferenciadas, denominadas 200, 400, 600 y 800.

De las cuatro, las tres primeras ya han sido presentadas en múltiples dispositivos a lo largo de todos los fabricantes. Sin embargo la última y más potente, los Qualcomm Snapdragon 800, aún están pendientes de empezar a ser producidas ‘en masa’ por la compañía, si bien ya queda muy poco tiempo para ello: Yufei Wang, Senior Product Manager de Qualcomm, ha afirmado en un evento en China que los Snapdragon 800 empezarán a fabricarse en masa en mayo.




Será a finales de mes cuando se iniciará el proceso, de forma que los primeros productos finales empezarían a llegar a partir de verano, o más probablemente en la recta final del año. Les recuerdo que son la gama más potente de procesadores Qualcomm y que se espera que sean utilizados no sólo en tablets, si no también en portátiles y televisores. En lo relativo a teléfonos hay muchas dudas, aunque es posible que algunos fabricantes sí ofrezcan ciertos modelos muy concretos (se habla de un Xiaomi Mi3, por ejemplo) y potentes pertenecientes a sus gamas más altas.

En cuanto a las características técnicas por ahora lo tenemos fácil, pues sólo hay un modelo Snapdragon 800 presentado: el denominado MSM8974 que cuenta con cuatro núcleos Krait 400, proceso de fabricación en 28 nanómetros, GPU Adreno 330 y frecuencias que podrían alcanzar los 2.3 GHz. Con toda seguridad uno de los procesadores ARM más potentes de la actualidad.

Vía | SlashGear
Más información | Engadget

Primero lanzaron los Major y Minor, y ahora Marshall presenta los Marshall Monitor. A priori son unos auriculares superiores que cubren toda la oreja (over-ear) pero en los que sin duda alguna llamarán la atención por su estética.

Mantienen el diseño de la primera generación de auriculares Marshall, aunque en esta ocasión las líneas son mucho más modernas. Siguen teniendo ciertos detalles muy característicos (el color negro, por ejemplo), utilizan conexión estándar de 3.5 milímetros e incluyen una bolsa de transporte y micrófono en el cable para uso como manos libres.



También hay que remarcar que tienen muchas partes extraíbles, cuya finalidad es la de limpiar todas las zonas para emitir el mejor sonido. Sus drivers son de 40 milímetros y prometen una respuesta de entre 10 y 20.000 Hz., muy aceptable, así como una impedancia de 42 ohmios.


Unos auriculares bonitos y aceptables en términos de calidad, por encima de la media aunque lejos de ser ‘los mejores’. Los Marshall Monitor tienen un precio de 200 euros.


Vía | UberGizmo
Más información | Marshall




Aunque seis pulgadas ya me parece una diagonal justa para un lector de libros electrónicos, Energy Sistem cree que rebajar ese datos hasta las 4.3 pulgadas es una buena idea.

El Energy eReader e4 Mini es un diminuto lector de tinta electrónica destinado a aquellos que necesitan un equipo muy contenido para leer y creen firmemente en la tinta electrónica. Como debe ser, por cierto. Su pantalla tiene una resolución de 600×800 píxeles, 16 niveles de gris y cuenta con sistema antirreflectante.



Los libros electrónicos, que por supuesto pueden ser en ePub o PDF, se almacenan en su memoria interna de 4 GB o en tarjetas externas de tipo microSD. Entre sus opciones de personalización no faltan el cambio de tamaño y tipografía de letra, zoom, favoritos, avance automático de página, historial de libros recientes o marcadores.

La batería es capaz de aguantar un mes sin recargar si hacemos un uso del lector una media de media hora al día, pero siempre dependerá de nuestra frecuencia de lectura.
Este Energy eReader e4 Mini ya está a la venta por 75 euros.

Más información | Energy Sistem.





Podríamos decir que “la cuenta atrás” para el lanzamiento de Ivy Bridge-E ha empezado. Oficialmente no hay ninguna información, pero todos los rumores apuntan a que llegarán en el segundo semestre del año, un tiempo después de los Haswell que se esperan para el mes de junio.
 
Ivy Bridge-E será la plataforma de alto rendimiento a nivel doméstico de la compañía americana. Sus predecesores. De ellos se conocen algunos detalles y por supuesto la comparación con Sandy Bridge-E, la actual generación, es obligada. ¿Qué porcentaje de mejora conseguirá Intel?



Pues esta semana un usuario de Coolaler ha subido algunos benchmarks realizados tanto con el i7-4960X como con el i7-3970X. El primero de ellos será el IB-E más potente y el segundo es el SB-E actual más potente, ambos trabajando con socket LGA2011 y en el mismo equipo. Los resultados muestran una mejora en el rendimiento de aproximadamente el 7% de media, variando en un rango de entre el 5 y 12% según el test ejecutado. ¿Es una mejora notable? Es significativa aunque no sorprendente, si bien tenemos que tener en cuenta que estas pruebas, en caso de ser reales, se habrán realizado con modelos pre-producción de CPU y placa base que no serán versiones finales, y que muy posiblemente reciban alguna mejora software de aquí a su lanzamiento definitivo.

Estos son los primeros datos del rendimiento pero seguro que no los últimos. Tradicionalmente la mejora proporcionada por una nueva generación de CPU suele situarse entre el 10 y el 15% respecto de la anterior, con lo que el margen de evolución aún sigue siendo amplio. ¿Cuándo lo sabremos? Cuando se presenten oficialmente, según muchos en el mes de noviembre.

D-Link ya ha confirmado que su PLC capaz de actuar como punto de acceso WiFi se encuentra a la venta. El modelo es el D-Link DHP-W311AV, equipo Powerline capaz de ofrecer una velocidad máxima de funcionamiento de 500 Mbps.

Este kit está compuesto por el adaptador DHP-308AV, que es el dispositivo que se conecta al router y colocamos en una toma eléctrica para repartir la conexión a Internet por toda la casa, y el adaptador DHP-W310AV, que es el verdadero protagonista y parte más interesante de este conjunto.

Este PLC lo conectaremos en un enchufe de la zona en la que queremos tener conexión a Internet. Pero además de ofrecernos una toma por cable de 500 Mbps, el nuevo Powerline de D-Link actúa como un punto de acceso WiFi a 300 Mbps.

Una red única o dos separadas

Ese nuevo punto podemos configurarlo para que actúe como una prolongación de la red principal, u otorgarle un nuevo nombre de red y contraseña, con lo que podemos tener dos redes separadas. El sistema integra QoS y tecnología Green para entrar en modo de espera cuando no se detecta actividad en la red.

El D-Link DHP-W311AV es compatible con el estándar HomePlug AV, con lo que nos aseguramos que podemos usarlo con equipos de otras marcas. El precio del kit es de 99 euros.

Más información | D-Link.

Samsung lanzará muy pronto al mercado un Galaxy S4 resistente al agua y el polvo. La versión casi "todo terreno" del insignia coreano llegará este año para cuidado de millones de usuarios distraídos o con manos de mantequilla.

Aunque el Galaxy S4 llegará muy pronto a millones de fanáticos de Samsung y Android por igual. Es seguro que algunos miles de los felices nuevos dueños consigan una funda o protector que pueda salvaguardar su apreciada posesión. Por lo que si tu preocupación es que tu smartphone resulte victorioso de las inclemencias de la vida cotidiana, podrías esperar "unas cuantas semanas".

La noticia la dio a conocer Young Soo Kim, representante de Samsung en Medio Oriente, quien reveló la existencia del teléfono durante una sesión con los medios locales, publicó el sitio TechView.

Este no sería el primer celular ultra resistente. Durante el MWC de este año, la firma coreana lanzó el Galaxy XCover 2, de prestaciones de gama media, enfocado en el mercado europeo. Otras compañías como Motorola, con la línea RAZR, y Sony, con el Xperia Z, ofrecen protección en contra de salpicaduras de agua y golpes poco intensos.

Después de dos años de no haber recibido una actualización, fue una sorpresa ver el ícono de Twitter dentro de la AppStore ofreciendo una nueva versión.

Esta actualización de Twiter for Mac viene con una gran cantidad de cambios, que incluyen una leve renovación en el diseño de la interfaz (cambiaron los íconos), soporte para ordenadores Mac con Retina Display y una herramienta mejorada para subir imágenes. Además, ya está disponible en 14 nuevos idiomas, entre ellos en español.

Además del lanzamiento, Ben Sandofsky, desarrollador de la aplicación, anunció en un tuit que estará trabajando de tiempo completo en más actualizaciones y mejores herramientas que posiblemente estén disponibles en los siguientes meses.

Twitter for Mac llegó a la tienda de aplicaciones como Tweetie for Mac, uno de los mejores clientes de esta red social en el mercado. Posteriormente, en 2010, tanto la aplicación móvil como la de escritorio fueron compradas por Twitter y fue ahí cuando dejamos de ver soporte y renovación.

La versión 2.2 de esta aplicación requiere OS X 10.6 o posterior, pesa aproximadamente 4.5MB y la puedes descargar gratis desde la App Store de Mac.


comments powered by Disqus
Copyright © 2012 Zona Info.