Acortadores de direcciones URL en internet

Publicado por Ignacio con fecha Enero - 7 - 2010 1 geekomentario

Hemos hablado en otras ocasiones de servicios acortadores de direcciones url en internet, generalmente como comparativa entre el número de caracteres que permiten reducir. Se usan por lo general para poder compartir enlaces en comunidades y redes sociales donde se limita el tamaño del mensaje en caracteres, por ejemplo, en Twitter o también para actualizar status en sistemas de mensajería instantánea como Messenger. Lamentablemente, a veces se usa también entre algunos internautas para enmascarar el link que se busca colocar, aunque no siempre el motivo de ocultar la dirección completa de la página es difundir malware o engañar con sitios peligrosos.

acortadores de direcciones url

En cualquier caso, es norma tácita entre internautas usar estos servicios moralmente y en Twitter tuvieron mucho trabajo para controlar los enlaces que se permitían y limitar las cuentas que tenian actividades sospechosas o hacian phishing. A continuación van algunos de los acortadores de URL más conocidos de internet:

TinyURL

TinyURL es uno de los acortadores de direcciones más conocidos, ya que además ofrece personalización de links para los usuarios que quieran poner una palabra sencilla que identifique el tema de la página enlazada detrás del dominio estándar. También tienen un plugin para el navegador web, de forma que se puedan ir acortando directamente las URL sin pasar por el formulario de la página oficial.

www.tinyurl.com

Bit.ly

Bit.ly es uno de los competidores de TinyURL, desde hace ya varios años, es un conocido acortador de direcciones URL que además proporciona un servicio estadístico para conocer la popularidad de los enlaces que hemos acortado, esto es, el número de visitantes que han pasado por ellos para acceder a la web enlazada.

www.bit.ly

Beam.to

Beam.to crea direcciones URL acortadas usando la dirección raíz de la página más un string de texto a elección por el usuario, generalmente una palabra muy corta para mostrar el tema de la página o simplemente alguna letra, lo bueno de este servicio es que se permite proteger con contraseña las URLs customizadas.

Para seleccionar esta opción hay que acortar una direccion cualquiera desde la página principal y hacer click en ‘Check Now’. Si se encuentra disponible la direccion que queremos usar con nuestro texto, pondremos además de la direccion de destino, una direccion de email donde nos mandarán la contraseña y de ese modo se podrá activar.

www.beam.to

Good.ly

Good.ly modifica las direcciones URL para acortarlas a la vez que funciona mediante un sistema complejo que puede beneficiar a organizaciones caritativas. Según se explica, cada vez que un webmaster usa Good.ly para crear una direccion que enlaza usando algún track de sistemas de afiliados, cualquiera que use ese enlace para acceder y realice una compra dona una parte del precio a una organización caritativa. Al crear las direcciones URL acortadas, el sistema permite elegir entre lo disponible, a que organización queremos ayudar en caso de que de nuestro enlace se deriven compras de internautas.

www.good.ly

Foxy URL

Foxy URL es otro acortador de direcciones URL, que además incorpora un addon o extensión para el navegador web Firefox. Esto facilita personalizar las direcciones de páginas web porque basta con copiarlas y pegarlas en el plugin sin necesidad de pasar por el formulario de la web oficial del servicio. Además teniendo cuenta permite tener un reporte de estadísticas sobre el uso del link y los usuarios que han accedido por el.

www.foxyurl.com

Ncane

El nombre de este acortador de direcciones url es quizá lo más llamativo ya que Ncane es al parecer una palabra en la lengua zulu que significa pequeño. Por motivos de seguridad, permite identificar o flagear, links creados en el servicio online que enlacen a páginas con contenidos peligrosos.

www.ncane.com

Is.gd

Is.gd es un acortador de direcciones extremadamente reducido que además incluye la posibilidad de poner una imagen previa al incluir un guión al final de la dirección. Eso ayuda a los internautas a fijarse primero en el aspecto del sitio antes de hacer click en el link y acceder a la página enlazada.

www.is.gd

U.nu

U.nu tiene la dirección raíz de dominio más corta de todos los servicios online acortadores de direcciones URL, por lo que posiblemente permite acortar lo máximo posible los enlaces. Se pueden crear direcciones personalizadas con caracteres alfanuméricos, reduciendo las direcciones generalmente por debajo de 15 caracteres, lo cual es útil para mensajes de texto entre teléfonos móviles y redes sociales como Twitter.

U.nu

SnipURL

En SnipURL se pueden procesar de una vez varias direcciones url para acortar, siempre y cuando seamos usuarios registrados en el servicio online. Se pueden poner varias direcciones web en el formulario y elegir entre cuatro prefijos diferentes que forman la raiz de la dirección personalizada en el link resultante. También tiene opciones como poner contraseña o usarlo como herramienta del navegador web.

Adicionalmente detecta diferentes links en un texto para incluir directamente las direcciones URL para acortar y permite examinar enlaces creados por otros usuarios.

www.snipurl.com

DickensURL

Este acortador de direcciones URL es Open Source y aunque no produce los enlaces más cortos ni tiene tantas opciones personalizables, es divertido porque está basado en el escritor Charles Dickens y puede mezclar direcciones enlazadas con citas de su obra.

Ofrece dos opciones, o bien una direccion más corta de caracteres alfanuméricos tras la raíz del dominio, o bien, lo que realmente destaca en este servicio, un DickensURL link, mucho más largo pero con una cita del autor, en mi caso me ha salido una de la obra A Christmas Carol de 1843.

www.dickensurl.com

Cort.as

Entre los medios de comunicación online en español, el periódico digital Soitu, creado en un proyecto informativo emprendedor en diciembre del año 2007 y que lamentablemente dejó su actividad en octubre del año 2009 pese a que su web está online con todo el trabajo que hicieron, tenía un servicio para acortar direcciones online, cort.as, que incluye el filtro de Google Safe Browsing. Desde el día 1 de junio de 2010, la edición digital del diario El País sigue manteniendo este servicio para acortar direcciones con diferentes protocolos de internet (ftp, http, https, ssh, entre muchos otros), de modo que las url de noticias se puedan mandar en sitios que tienen limitaciones de caracteres.

11 años de historia de Google en un video

Publicado por Ignacio con fecha Noviembre - 10 - 2009 Comentar

El video que puede verse a continuación fue publicado en Youtube por el canal británico de la empresa Google, GoogleChannelUK, se trata de la evolución de la compañia, sus lanzamientos, productos, servicios y gestión desde su fundación en 1998 por Larry Page y Sergey Brin. El video va mostrando los hechos más destacables mientras pasa por las páginas de un cuaderno, la creación del buscador, el logo de Google, las oficinas, Blogger, Google Adsense, Adwords, Gmail, Google Maps, iGoogle, Google Talk, Google Analytics, la adquisición de Youtube, Google Apps, Android, Street View, el navegador Chrome, Google Wave, el sistema operativo Chrome OS…

También sirve para darnos cuenta de como hemos cambiado nuestros hábitos con Google, como era internet cuando no se usaba el buscador y habia otros buscadores olvidados en la actualidad, creo recordar que Ozú, Altavista y otros, minoritarios respecto a Yahoo o Msn y el actual competidor Bing que siguen estando muy lejos de recortar distancias. También como hemos cambiado la mayoria de servicio de correo email para pasarnos a Gmail, lo que nos ha servido a los bloggers y webmasters tener un sistema de estadísticas gratuito como Analytics, lo que le ha cambiado la vida a más de uno el poder tener Adsense en sus páginas web y en general hacer balance de como la presencia de Google ha cambiado internet.

Como dice el video al final, ¿qué será lo siguiente?

Acid3 Browser Test, pon a prueba tu navegador web

Publicado por Ignacio con fecha Octubre - 16 - 2009 Comentar

La elección de un navegador web es esencial para descubrir internet, lamentablemente está anclada en que el programa cliente que nos va a mostrar Internet suele ser elegido según ya venga preeinstalado con el sistema operativo, motivo principal del mantenimiento de internet explorer en el top de navegadores web en función del número de usuarios conectados a internet. El Proyecto de Estándares Web (Web Standards Project, más conocido por las siglas WaSP), quiere promocionar el uso de estándares web, para reducir el costo y la dificultad del desarrollo web e incrementar la accesibilidad de cualquier documento publicado en la Web.

Web Standards Project

Acid3 es una serie de tests realizados para ayudar a los desarrolladores de navegadores web a asegurarse que dan un correcto soporte a los estándares web, ha sido desarrollado en los últimos dos años y ha recibido muchos comentarios de desarrolladores y usuarios en relación con los resultados y su significado. Acid3 realiza test en un primer nivel de especificaciones para la Web 2.0 y las páginas web dinámicas, asi como se valora también la velocidad de carga. También se incluyen tests de renderizado como:

  • HTML4 (object, iframe, …)
  • HTTP (Content-Type, 404, …)
  • Media Queries
  • Selectors (:lang, :nth-child(), combinators, dynamic changes, …)
  • XHTML 1.0
  • CSS2 (@font-face)
  • CSS2.1 (’inline-block’, ‘pre-wrap’, parsing…)
  • CSS3 Color (rgba(), hsla(), …)
  • CSS3 UI (’cursor’)
  • data: URIs
  • (SVG Animation, SVG Fonts, …)

Se puede realizar una prueba con Acid3 test, y ver que puntuación sobre 100 recibe el navegador que usamos, según explican en la web oficial, puede haber mucha diferencia entre puntuaciones y pasar el test no es lo mismo que sacar la máxima puntuación, yo he probado con Internet explorer 8, Firefox 3.5, Chrome 3, Opera 10, que me parecen los navegadores que más dominan entre los usuarios y estos son los resultados:

Internet Explorer 8

Acid3 test navegadores

Internet explorer siempre ha sido la pesadilla de todo webmaster, por la necesidad de adaptar el diseño de la web a un navegador poco respetuoso con los estándares web y que va en su linea, pero que sigue siendo el más utilizado por mucho que nos pese, entorno a un 70% de usuarios conectados a internet usan este navegador. Esta prueba es con IE8, con IE6 la cosa sale aun peor.

Firefox 3.5

Acid3 test navegadores

Mozilla Firefox, el navegador con más simpatizantes entre los detractores de internet explorer, muy seguro y rápido aunque en versiones anteriores arrastraba problemas de excesivo consumo de memoria, es muy personalizable con un enorme directorio de plugins para adaptar nuestra experiencia en internet.

Google Chrome 3

Acid3 test navegadores

Google Chrome, el navegador web de Google, sencillo de usar, super rápido y con diseños minimalistas y coloridos, una nueva opción que va expandiendose gracias al peso de Google en internet.

Opera 10

Acid3 test navegadores

Acid3 no es un test para determinar ganadores y perdedores entre los navegadores web, pero Opera 10 es sin duda el más respetuoso con los estándares web, en mi opinión es un navegador que nada tiene que envidiar pese a que no sea tan utilizado.

Classic Cat, descarga música clásica gratuita

Publicado por Ignacio con fecha Septiembre - 20 - 2009 Comentar

Classic Cat es un directorio web con enlaces para descargar música gratuita legalmente, con una base de datos aproximada de 5000 obras de música clásica dentro de una clasificación por compositores, músicos, instrumentos. Incluyen un TOP con las obras más buscadas y un ranking por compositores.

Classic Cat

En un mundo cada vez más metido en la música estrictamente comercial, en los grupos de adolescentes creados para vender, cantantes POP sexys, una industria discográfica cada vez más en crisis; donde salvo Apple con iTunes, pocos ven oportunidades de crear ingresos en internet bajo el azote de la pirateria.

Afortunadamente, la cultura clásica nunca muere y Classic Cat permite encontrar obras de música clásica gratuitamente.

Gracias a Milagros de ChicaSeo.

Customize Your Web, modifica el aspecto de la web

Publicado por Ignacio con fecha Septiembre - 18 - 2009 Comentar

Customize Your Web es una extensión para el navegador web Firefox desarrollada por Rudolf Noe que intenta facilitar la modificación gráfica de las páginas web que visitamos, guardando esos cambios para visitas posteriores. Se trata de un plugin sencillo que tiene un menú e interfaz gráfica, no hay que tocar nada de código y lo vamos haciendo con el ratón y algunos clicks, con maniobras tan sencillas como cortar y pegar módulos de diversas webs y cambiarlos de posición.

Al entrar en modo edición, se usa un editor WYSIWYG que valga la redundancia es exactamente el concepto what you see is what you get, tendremos que elegir el elemento que queramos modificar para acto seguido especificar la acción que queramos realizar sobre él (esconder, hacer click, cambiar tamaño, color, posición, cortar/pegar). Estas modificaciones se pueden cargar cada vez que visitamos esa página web o se pueden cargar cuando pulsemos la tecla que queramos, y además pueden encadenarse para formar macros.

Para citar algunos ejemplos antes de ver el video de demostración, la herramienta o plugin para Firefox, Customize your web, permite modificar los resultados de búsqueda de Google (no, nada de cambiar los rankings para mejorar posicionamiento o temas SEO de tu blog o web), de forma que tengas las búsquedas relacionadas en la parte superior en vez de tener noticias relacionadas o anuncios de Adwords.

Esto vale para otras webs donde por ejemplo hay un módulo con articulos relacionados que no es muy visible o que no quieres tener que descender cada vez que visitas la web, para verlo. Otra opción es cambiar colores a tu gusto, para crear una plantilla diferente a la que el webmaster ha elegido.

Visto gracias: Genbeta

Descarga Customize Your Web.

Herramientas para realizar copias de seguridad de tus cuentas y perfiles online

Publicado por Ignacio con fecha Septiembre - 11 - 2009 Comentar

Cloud computing o computación en la nube, es una metáfora en relación con los servicios online que podemos utilizar en internet pero que al contrario que los programas de escritorio, solamente tenemos acceso a nuestros datos conectando con los servidores remotos donde tenemos alojadas las cuentas. Puedes acceder a tus datos desde cualquier parte conectándote a internet, no como si tuvieses datos almacenados en un disco duro o guardados los archivos en una unidad de almacenamiento externo que solamente tú controlas.

Los usuarios pueden acceder a los servicios disponibles “en la nube de internet”, donde la información se almacena de manera permanente en servidores conectados a internet, en algunos casos la empresa tiene sus propios data centers con técnicos que controlan los ordenadores, y se envía a cachés temporales de cliente web. La computación en nube es un concepto general que incorpora el software como servicio online, la Web 2.0 y las redes sociales de forma que permitan a los usuarios resolver sus necesidades en temas de computación en internet.

Dado que la computación en nube no permite a los usuarios poseer físicamente sus datos, su privacidad y todo lo que hayan guardado en sus cuentas queda en la responsabilidad del almacenamiento de datos y su control en manos del proveedor. La computación en nube ha sido criticada por limitar la libertad de los usuarios y hacerlos dependientes del proveedor de servicios, que puede tanto cancelar las cuentas sin previo aviso incluso si es un servicio de pago, no ser honesto con el respecto a la privacidad de datos, o incluso tener alguna vulnerabilidad de seguridad que haga que los clientes se vean afectados por ataques de crackers a los servidores.

Richard Stallman, fundador de la Free Software Foundation, cree que la computación en nube pone en peligro las libertades de los usuarios, porque éstos dejan su privacidad y datos personales en manos de terceros.

“Una de las razones por las que no debes usar aplicaciones web para tus tareas de TI, es que pierdes el control. Tú debes estar en condiciones de realizar tus propias tareas en tu propio PC, en un programa amante de la libertad. Si usas un programa propiedad de un proveedor, o el servidor Web de otra persona, entonces quedas indefenso…el cloud computing es una trampa”.

Aunque los sitios con servicios en línea y las empresas que los gestionan no tuviesen malas intenciones, lo cierto es que si por alguna circunstancia sus servidores se caen, perdiendo la conexión o resultan dañados, el servicio es vendido a otra empresa o se recibe un ataque de crackers, todos los datos almacenados en las cuentas de los internautas quedarían comprometidos.

Por ese motivo es necesario tener programas que permitan sincronizar nuestros datos tanto en escritorio como en la nube, como por ejemplo permite el gestor de tareas Evernote. Y si esto no fuese posible poder disponer de software para backups o herramientas para realizar copias de seguridad de nuestras cuentas y perfiles en internet. Afortunadamente existen muchos servicios, algunos de pago y otros gratuitos, muy fáciles de usar para cumplir con esta necesidad que nace de la controversia sobre el Cloud Computing.

Realizar backups en Gmail

Google es una empresa más que confiable y brinda muchísimos servicios online gratuitos, como su servicio de correo electrónico Gmail. No obstante hay muchos usuarios que prefieren guardar sus correos y antiguos emails en un backup. Algunas servicios de correo webmail permiten realizar copias de seguridad de nuestros datos, por ejemplo en Windows Live Hotmail, se pueden exportar datos accediendo desde Opciones puedes exportar contactos y mensajes enviados.

En Gmail, tienes que ir a Opciones para activar Forwarding and POP/IMAP que te deja copiar los emails entrantes a la direccion que indiques. También se puede activar POP para todo email y de ese modo importar la bandeja de entrada a software de escritorio para la gestion del correo electrónico.

Sin embargo existen herramientas de terceros para realizar backups más completos como Gmail Backup. Funciona ingresando los datos de acceso y Gmail Backup realiza una copia de seguridad completa de nuestra cuenta.

Gmail backup

Gmail Keeper es un software para backups con más funciones que Gmail Backup pero es de pago, incluye un sistema para planificar en que fechas se harán las copias de seguridad pero en versión gratuita, Gmail Keeper tiene un máximo de 300 emails. Su coste es de $29.95.

Gmail backup

Realizar copia de seguridad de una cuenta Facebook

Por supuesto, entre los servicios online en la nube se encuentran los perfiles en redes sociales, como Facebook. Para tener un resguardo de tus cuentas puedes usar Teasker, que incluyen secciones donde explican porque es útil tener backups de perfiles como por ejemplo que te borren la cuenta por infringir los términos y condiciones de uso, que haya un hackeo; el hecho de poder no sólo tener una copia de seguridad sino reestablecerla en una nueva cuenta.

Hay que tener cuenta y dar los datos de acceso de modo que se haga un backup semanal de las cuentas, en redes sociales como Facebook, MySpace, Linkedin, Friendster y Bebo. Planean incorporar compatibilidad para otras redes sociales proximamente.

También se puede usar un servicio de pago más profesional como SocialSafe, el precio es muy asequible, de apenas $2.99 dólares aunque lamentablemente ofrece copias de seguridad de contactos, datos de perfil y fotos pero no de bandeja de entrada, grupos o aplicaciones.

Social Safe

Hacer backup de cuentas Twitter

Tweet Scan Backup sirve para guardar tus actualizaciones, los tweets enviados, respuestas, amigos a los que sigues, followers y la cuenta en general creando un archivo que puede ser consultado de forma offline.

Existen otras soluciones disponibles para realizar copias de seguridad de cuentas Twitter como BackupMyTweets que va guardando todas las actualizaciones diariamente y luego se pueden descargar en formatos HTML, XML, o JSON.

Twistory añade los tweets a una aplicación que establece un calendario para navegar facilmente entre las actualizaciones al contrario que el timeline, y la herramienta Twinbox permite organizar los tweets con Microsoft Outlook.

Finalmente otra opción es llevar la monitorización del feed de cada cuenta Twitter en un lector RSS como FeedDemon, basado en Windows.

Tweet backup

Crear un backup de Google Docs

Google Docs es otro servicio online de Google, una suite de ofimática muy útil como cualquier otra entrega de Google, permite trabajar con documentos y organizar tareas en línea dentro de un grupo de trabajo compuesto por varios usuarios, es utilizado por bastantes empresas por lo que Google cuida mucho la protección de datos así como la privacidad al estudiar posibles demandas de instituciones. Una forma muy sencilla de tener un respaldo de Google Docs es mediante GDocBackup, que va monitoreando tu trabajo de modo que guarda todo documento nuevo o actualizaciones de otro creado anteriormente.

La versión más actualizada de Gladinet Cloud Desktop permite crear copias de seguridad de Google Docs y obtenerlas directamente con alguno de los proveedores soportados por el software como Amazon S3, Box.net, Windows Live Skydrive, o descargar mediante FTP. Sirve muy bien para descargar backups de Google Docs sobretodo si ya tienes muchos archivos en uso.

GDocBackup

Realizar backup de un blog en WordPress

Si gestionas un weblog y tu plataforma de publicación es WordPress, entonces como cualquier otro webmaster o blogger no puedes eludir la tarea constante de tener copias de seguridad, que siempre se realizan por responsabilidad pero esperando no tener que hacer uso de ellas, sobre todo si es por un ataque al servidor para dañar la web o inyectar código malicioso.

Una opción muy utilizada es tener un backup periódico de la base de datos, se puede hacer con el plugin WP-DB-Backup, para usarlo hay que ir a Opciones —> Backup de ese modo se pueden establecer backups periodicos. Es un plugin wordpress bastante popular y de momento es compatible hasta la versión más reciente del CMS de blogs.

Para tener un backup completo no basta solamente con la base de datos, tendrás que tener un backup de archivos, imágenes, diseño… para ello puedes realizar un backup desde tu hosting o usar un software como SyncBack para sincronizar los cambios en tus copias de seguridad periodicas y bajarlas por FTP.

SyncBack

Estos programas son útiles para blogs en plataformas online, como los clientes webmail, pero si tenemos nuetra bitácora en un servicio de hosting lo que debemos hacer es un backup general de la cuenta, desde el panel o mediante consola de comandos.

Obtener un backup de videos Youtube

Youtube es cada vez más paciente con las infracciones a los términos y condiciones, actualmente si los videos que has subido tanto desde tu ordenador como desde móvil, no cumplen con el tipo de contenido apto para el portal de videos o el usuario del canal no tiene la autoría o propiedad intelectual de los contenidos entonces sencillamente serán deshabilitados en poco tiempo o al visionarlos aparecerán anuncios en favor del autor o de quien tenga el copyright.

Anteriormente muchas personas se quejaban de cierres de cuenta pero creo que ahora no hay baneos salvo en casos extremos de mala conducta. Aún asi, para muchas personas sería conveniente tener un backup de todos sus videos, una herramienta sencilla de usar es UltraGet que también sirve con Google Video y MetaCafe. Hay muchos programas para descargar videos de Youtube, el más popular en estos momentos podria ser DownloadHelper, aunque es más bien global para videos flash en internet y se trata de una extensión para el navegador Firefox.

Ultraget

Crear un backup de tus fotos en Flickr

FlickrEdit sirve para tener un backup de todas las fotos guardadas en tus álbumes de Flickr con su título, descripción, etiquetas y copyright, esto deberia ser asi porque en Flickr insisten en que solamente subas fotos que te pertenezcan. Además es mejor asi si conservas los originales. Este software también sirve como editor y para subir fotos a tu cuenta Flickr.

Migratr es un software para descargar tus fotos si quieres tener un backup pero también para migrar de servicio online de fotos, actualmente soporta los sitios web Faces.com, Flickr, Picasa Web, Photobucket, SmugMug, entre otros.

También se puede usar offlickr, una herramienta que funciona mediante linea de comandos a la que estarán acostumbrados los usuarios de Linux o que usen acceso SSH de vez en cuando a sus servidores, permite descargar fotos, videos y datos del material que tengas en la cuenta. El código fuente programado en Python está disponible asi que los programadores podrán realizar cambios o trastear un poco.

backup fotos Flickr

Crear una copia de seguridad de tus datos en LinkedIn

LinkedIn es una red bastante desarrollada, enfocada a los contactos profesionales, donde los usuarios incluyen su curriculum vitae y su experiencia laboral, aunque no todo el mundo se ha pasado por allí a realizar un poco de networking. Si tienes cuenta seguramente querrás guardar tu perfil. Se pueden exportar los datos desde el icono PDF en la página de perfil, no requiere un software de terceros. Puedes buscar tus contactos en Contacts > Export Connections y guardarlos en un archivo de formato CSV o VCF, asi tendrás disponible tu libreta de direcciones.

Crear un backup de tus imagenes en Photobucket

Normalmente puedes tener una cuenta Photobucket para alojar tus imágenes de forma externa a un servidor de pago, si incumples los términos y condiciones te las borrarán pero no te quitarán la cuenta. Si deseas tener un backup y mejor capacidad, tendrías que pagar la cuenta Pro, con un coste de $24.95 dólares por año. Proporciona acceso FTP para descargar tus imágenes al ordenador, puedes usar un programa FTP como Filezilla o SmartFtp para ello.

Existe una herramienta de nombre PhotoFucket, que te pide la ID de la cuenta y el nombre del álbum donde tienes las fotos, después realiza una búsqueda y muestras las imagenes que serán descargadas.

backup Photobucket

Crear un backup de todas las cuentas y servicios online

Puedes utilizar soluciones globales de servicios para resguardar todas tus cuentas online, pero generalmente son de pago. Lifestream Backup, es un servicio de calidad y soporta cuentas en Flickr, Photobucket, Twitter, Google Docs, Delicious y blogs WordPress; su coste es de 29.95 USD por año.

BackupMy.Net engloba copias de seguridad para web mail, en cuentas que utilicen Gmail, Hotmail, Windows Live; como también ofrece backups para servicios de blogs en WordPress, Blogger o Typepad asi como servicios online de fotos como Flickr, Photobucket, Facebook, Picasa, smugmug. Cada servicio tiene un coste de 19.95 USD por año y 1GB de espacio con un coste de 2.95 USD por cada GB adicional de espacio que necesites.

Esperamos que puedan servirte estas herramientas para tener siempre un respaldo de tus cuentas, email, perfiles en redes sociales y tu blog. En cualquier caso es una buena costumbre de seguridad informática. Gracias a Techradar.

El acortador de direcciones url bit.ly reduce caracteres con j.mp

Publicado por Ignacio con fecha Septiembre - 8 - 2009 Comentar

Los acortadores de URL son servicios online que sirven para reducir la longitud de las direcciones URL de las webs cuando queremos compartir un enlace o citar a otra persona. En la red social Twitter se hacen especialmente necesarios porque los tweets o mensajes que enviamos están limitados a 140 caracteres. Además de esto tienen otros usos como la pura estética que defienden algunos webmasters para la presentación de direcciones web más sencillas a los ojos del visitante o también otros fines más oscuros como esconder links de afiliado para cobrar comisión sin que se sepa o también en los distribuidores de malware esconder la direccion de una web poco fiable.

acortadores url

En Twitter se utiliza el servicio de bit.ly, pero en un avance para mejorar el acortador de url’s, han ido más lejos creando el acortador j.mp para los links compartidos en Twitter. Si, son dos caracteres. Desde el blog de bit.ly se explican los motivos y la influencia que puede tener este nuevo servicio para acortar las direcciones url.

j.mp es un servicio similar creado por el mismo equipo de bit.ly, tiene estadísticas y las cuentas se mantienen aunque hay que hacer login para usar el nuevo servicio pero las opciones de bit.ly no van a desaparecer, la diferencia es rizar el rizo, hacer las direcciones url aún más cortas y ganar dos caracteres.

bit.ly no era el servicio online que permitia las url más cortas, comparandolo con el servicio de tr.im. Asi que se puede pensar que lo que venian anunciando en el sitio oficial sobre mejorar el aspecto del acortador de url’s en un plazo corto de tiempo es: j.mp.

Los tweets podrán ser ahora un 1.4% más largos, además de tener un servicio con un dominio más fácil de recordar.

Como se veian algunos de los 20 sitios web más populares de internet en sus inicios

Publicado por Ignacio con fecha Septiembre - 8 - 2009 Comentar

Una utilidad bastante entretenida para los internautas curiosos es Wayback Machine, que como su nombre indica en inglés, es una maquina del tiempo para volver al pasado, ya que este buscador de internet recopila una enorme base de datos con capturas de como se veian diferentes páginas web en fechas pasadas.

La base de datos de Internet Archive Wayback Machine tiene una buena parte de la historia de internet, ocupando más de 100 terabytes y contando en su biblioteca virtual con 10 billones de sitios web archivados desde 1996 hasta la actualidad. Puedes usar el buscador y poner direcciones de webs de las que eres asiduo para mirar versiones en caché en fechas pasadas, además con esto se puede ver que los comienzos fueron duros para todo el mundo, incluso para los gigantes de internet.

Asi se veian algunas de las páginas más conocidas y visitadas de internet en sus inicios:

1. google.com – lanzado en 1996

google wayback machine

2. facebook.com – lanzado en 2004

facebook wayback machine

3. myspace.com – lanzado en 2003

myspace wayback machine

4. yahoo.com – lanzado en 1994

yahoo wayback machine

5. youtube.com – lanzado en 2005

youtube wayback machine

6. wikipedia.org – lanzado en 2001

wikipedia wayback machine

7. msn.com – lanzado en 1995

msn wayback machine

8. apple.com – lanzado en 1987 aunque la captura es del año 1996

apple wayback machine

9. drudgereport.com – lanzado en 1997

drudge report wayback machine

10. amazon.com – lanzado en 1995

amazon wayback machine

11. twitter.com – lanzado en 2006

twitter wayback machine

12. whitehouse.gov – lanzado en 1994

whitehouse wayback machine

13. craigslist.org – lanzado en 1995

craigslist wayback machine

14. nytimes.com – lanzado en 1995

NYtimes wayback machine

15. news.bbc.co.uk – lanzado en 1997

BBC news wayback machine

16. dell.com – lanzado en 1996

Dell wayback machine

17. friendsreunited.com – lanzado en 2000

friends reunited wayback machine

18. telegraph.co.uk – lanzado en 1994

telegraph wayback machine

19. blogger.com – lanzado en 1999

blogger wayback machine

20. flickr.com – lanzado en 2004

flickr wayback machine

Como veis, da una idea de como eran las páginas web hace años y como se ha ido sofisticando internet, que nadie era un genio del diseño hace una década.

40 aniversario de internet

Publicado por Ignacio con fecha Septiembre - 2 - 2009 Comentar

El 2 de septiembre de 1969 se producía el primer intercambio de información entre dos ordenadores, no era nada parecido a la gran red WWW actual, pero su precursora ARPANET puede considerarse como los origenes de internet. La red de computadoras ARPANET (Advanced Research Projects Agency Network) fue creada por encargo del Departamento de Defensa de los Estados Unidos como medio de comunicación para los diferentes organismos del país. El primer nodo se creó en la Universidad de California, Los Ángeles y fue la espina dorsal de Internet hasta 1990, tras finalizar la transición al protocolo TCP/IP en 1983 y la creación del lenguaje html fue el impulso definitivo para la creación de páginas web.

El 21 de noviembre de 1969, surgía la red Arpanet, que establecía el primer enlace entre las universidades de UCLA y Stanford por medio de la línea telefónica conmutada. La red de computadoras capaz de comunicar usuarios en distintas computadoras fue un concepto formulado por J.C.R. Licklider de Bolt, Beranek and Newman (BBN) en agosto de 1962, en una serie de notas que discutían la idea de “Red Galáctica”.

“una red de muchos [ordenadores], conectados mediante líneas de comunicación de banda ancha” las cuales proporcionan “las funciones hoy existentes de las bibliotecas junto con anticipados avances en el guardado y adquisición de información y [otras] funciones simbióticas”
J.C.R Licklider

En octubre del mismo año, Licklider fue convocado por ARPA (Agencia de Investigación de Proyectos Avanzados) perteneciente al Departamento de Defensa de los Estados Unidos. Convenció a Ivan Sutherland y Bob Taylor de la importancia del concepto antes de abandonar la agencia, y antes de que se iniciara trabajo alguno. Mientras tanto, Paul Baran estaba trabajando desde 1959 en la RAND Corporation en una red segura de comunicaciones capaz de sobrevivir a un ataque con armas nucleares, con fines militares.

En la misma época, Leonard Kleinrock ya trabajaba en el concepto de almacenar y reenviar mensajes en su tesis doctoral en el MIT. Esto incluía un importante análisis de la teoría de colas aplicada a las redes de comunicaciones (publicado como libro en 1964). Su trabajo aún no incluía la idea de fragmentación en paquetes.

Por último, Donal Davies, del Laboratorio Nacional de Física comenzó a relacionar todos estos conceptos en 1965, después de asistir a una conferencia en el Reino Unido sobre multiplexación en el tiempo. Su investigación tuvo lugar independientemente de los trabajos de Baran, de los que no tuvo conocimiento hasta 1966. Cuatro centros de investigación independientes (DARPA, la corporación RAND, el MIT y NPL en el Reino Unido) acabarían convirtiéndose en los primeros nodos experimentales de ARPANET.

Al final de 1966, Taylor contactó a Lawrence G. Roberts (del Laboratorio Lincoln, en el MIT) con el objeto de que liderase el proyecto de creación de la nueva red. Roberts ya conocía a Davies gracias a la mencionada conferencia sobre multiplexación en el tiempo.

El concepto original de Roberts consistía en utilizar la técnica de multiplexación en el tiempo, uniendo máquinas directamente con cables telefónicos. En una de las primeras reuniones (de 1967), muchos participantes no estaban dispuestos a que sus computadoras tuvieran que gestionar líneas telefónicas. Uno de estos participantes, Wesley A. Clark, tuvo la idea de usar pequeños ordenadores separados sólo para gestionar los enlaces de comunicaciones. Esta idea permitió descargar de trabajo a las computadoras principales, además de aislar la red de la distinta naturaleza de cada computadora.

estructura ARPANET

Sobre esta base comenzó el diseño inicial de ARPANET. Roberts presentó su primer plan en un simposio de 1967. En este mismo evento se encontraba presente Roger Scantlebury, colaborador de Davies. Gracias a este encuentro discutieron la idea de la conmutación de paquetes, y permitió a Roberts conocer el trabajo de Baran.

En el verano de 1968 ya existía un plan completo y aprobado por ARPA. De manera que se celebró un concurso con 140 potenciales proveedores. Sin embargo, solamente 12 de ellos presentaron propuestas. En 1969, el contrato se adjudicó a BBN. El 29-10-1969 se transmite el primer mensaje a través de ARPANET y el 21-11-1969 se establece el primer enlace entre las universidades de Standford y la UCLA.

La oferta de BBN seguía el plan de Roberts rapidamente. Los pequeños ordenadores se denominaron Procesadores del interfaz de mensajes (IMPs). Éstos implementaban la técnica de almacenar y reenviar y utilizaban un módem telefónico para conectarse a otros equipos (a una velocidad de 50 kbits por segundo). Los ordenadores centrales se conectaban a los IMPs mediante interfaces serie a medida.

ordenadores ARPANET

Los IMP se implementaron inicialmente con ordenadores DDP-516 de Honeywell. Contaban con 24 kilobytes de memoria principal con capacidad para conectar un máximo de cuatro ordenadores centrales, y comunicarlos con otros seis IMP remotos. BBN tuvo disponible todo el hardware y el software necesario en tan sólo nueve meses. La ARPANET inicial consistía en cuatro IMPs instalados en:

  1. UCLA, donde Kleinrock creó el Centro de medición de red. Un ordenador SDS Sigma 7 fue el primero en conectarse.
  2. El Augmentation Research Center en el Instituto de investigación de Stanford, donde Doug Engelbart creó el novedoso sistema NLS, un incipiente sistema de hipertexto. Un ordenador SDS 940 fue el primero en conectarse.
  3. La Universidad de California, con un IBM 360.
  4. El Departamento Gráfico de la Universidad de Utah, donde Ivan Sutherland se trasladó. Con un PDP-10 inicialmente conectado.

El primer enlace de ARPANET se estableció el 21 de noviembre de 1969 entre UCLA y Stanford. el 5 de diciembre del mismo año, toda la red inicial estaba lista.

En marzo de 1970 ARPANET cruzó hasta la costa Este cuando la propia BBN se unió a la red. En 1971 ya existían 23 ordenadores conectados, pertenecientes a universidades y centros de investigación. Este número creció hasta 213 ordenadores en 1981 con una nueva incorporación cada 20 días en media.

En 1972, Ray Tomlinson de la BBN inventó el correo electrónico. En 1973, el protocolo FTP ya estaba definido e implementado, facilitando el movimiento de ficheros en ARPANET. Para entonces el 75% del tráfico ya se debía al éxito del correo electrónico. También se especificó un protocolo para transmisión de voz (RFC 741), que llegó a implementarse pero fue un fracaso por motivos técnicos. Esto no vería la luz hasta varias décadas más tarde.

En la década de los 70 se crearían los correos electrónicos y los protocolos de comunicaciones TCP/IP, que facilitaron la conexión de varias redes. Sin embargo, su transformación en instrumento de la vida diaria no llegaría hasta 1989, cuando un grupo de físicos del CERN de Ginebra crea el lenguaje HTML y construye, al año siguiente, el primer cliente web, llamado WorldWideWeb (www), y el primer servidor web.

estructura ARPANET

Durante los finales de los años 80 se formaron las primeras compañías Internet Service Provider (ISP). Compañías como PSINet, UUNET, Netcom, y Portal Software se formaron para ofrecer servicios a las redes de investigación regional y dar un acceso alternativo a la red, e-mail basado en UUCP y Noticias Usenet al público. El primer ISP de marcaje telefónico, world.std.com, se inauguró en 1989.

Esto causó controversia entre los usuarios conectados a través de una universidad, que no aceptaban la idea del uso no educativo de sus redes. Los ISP comerciales fueron los que eventualmente bajaron los precios lo suficiente como para que los estudiantes y otras escuelas pudieran participar en los nuevos campos de educación e investigación.

Para el año 1990, ARPANET había sido superado y reemplazado por nuevas tecnologías de red, y el proyecto se clausuró. Tras la clausura de ARPANET, en 1994, NSFNet, actualmente ANSNET (Advanced Networks and Services, Redes y Servicios Avanzados) y tras permitir el acceso de organizaciones sin ánimo de lucro, perdió su posición como base fundamental de Internet. Ambos, el gobierno y los proveedores comerciales crearon sus propias infraestructuras e interconexiones. Los NAPs regionales se convirtieron en las interconexiones primarias entre la multitud de redes y al final terminaron las restricciones comerciales.

A finales de la década de los 90, Internet comenzaba a convertirse en un elemento más de la vida cotidiana, aunque su llegada masiva a los hogares no se produciría hasta ya entrado el nuevo siglo, en muchas zonas se comprobó que en el año 1995 pocas personas sabian todavia para que servia internet. En el año 2000 se produjo el llamado boom de los .com, numerosas personas se instalaron en internet registrando dominios para establecer negocios pero cuando las grandes empresas y negocios fisicos se instalaron en internet para aumentar su presencia a través de la red, los oportunistas se dieron cuenta de que la cosa era mucho más dificil y que no bastaba con tener ideas.

Con internet se ha ganado en comodidad y ahorro de tiempo. Muchas gestiones se hacen en clicks, como consultar cartelera, sacar entradas, buscar alojamiento, sacar billetes para viajar, realizar gestiones administrativas y tributarias, realizar operaciones bancarias, comprar todo tipo de articulos con entraga a domicilio…

La gestión de la información en lo cual se ha centrado la filosofia de Google, es una parte muy importante en el desarrollo de internet, antes del nacimiento de Google, existian los directorios y múltiples buscadores para encontrar webs e información repartida por la red. Profesionales creaban sus webs con curriculums en html, estudiantes buscaban trabajos ya hechos y apuntes en sitios como el rincon del vago… Actualmente la información está muy bien organizada en Google, que indexa millones y millones de paginas, pero tambien es común consultar la prensa online antes que leer los periodicos, buscar en internet libros, reseñas, criticas de cine, opiniones de consumidores antes de ir a un centro comercial a comprar o hacerlo directamente en tiendas online…

No obstante, a pesar de sus innumerables ventajas, internet ha traido también cosas malas, como el fraude online, el robo de datos, el spam, la Red WWW continúa despertando miedo de no pocos usuarios, algunos todavia traumatizados por antiguas estafas como los dialers que azotaron internet cuando las conexiones dialup eran bastante peores pese a que nos quejemos de las tarifas adsl tercermundista que nos dan las compañias de telefonia. El miedo al fraude hace que todavía muchos prefieran realizar físicamente sus gestiones personales o que vean peligros al realizar compras a través de Internet, utilizar sus tarjetas bancarias en la red, dar datos personales, entrar en webs por temor al spyware o abrir determinados correos electrónicos sospechosos.

Más información sobre la historia de internet en Wikipedia.

La revista TIME publica un listado con los 50 mejores sitios web

Publicado por Ignacio con fecha Agosto - 31 - 2009 Comentar

En la edición online de la revista TIME puede verse un listado y algunos videos, de los 50 mejores sitios web, una selección que ya realizaron en años anteriores. El listado pretende ser un borrón y cuenta nueva en los favoritos y marcadores que tengan los usuarios aunque por supuesto es totalmente subjetivo.

top 50 webs listado TIMEEsta subjetividad de TIME, viene con muchas obviedades, sitios web o más bien gigantes de internet que supongo que todos esperábamos ver en cualquier listado que hable de lo mejor de internet, como por ejemplo Google, Wikipedia, Flickr, Delicious, Twitter, Youtube, Facebook o Last.fm.

Lo que sucede es que muchos sitios web con servicios para los internautas son conocidos unicamente en la red inglesa o americana, con lo cual es normal que haya algunos sitios desconocidos para internautas acostumbrados a navegar por sitios en español o en sus versiones traducidas.

Como cabria esperar este tipo de servicios utilizados por millones de internautas son, aparte de los nombres mencionados, utilidades para consumidores, guias y directorios de ocio por ciudades, comunidades sociales y redes relacionadas con videos, música o marcadores sociales.

La lista completa que nos ofrece TIME se puede consultar en el enlace inferior y muestra una captura con una breve descripción y justificación de porqué dicho sitio web entra en el prestigioso listado, puedes navegar o ver de golpe la lista.

top 50 webs listado TIME

  • 1. Flickr
  • 2. California Coastline
  • 3. Delicious
  • 4. Metafilter
  • 5. popurls
  • 6. Twitter
  • 7. Skype
  • 8. Boing Boing
  • 9. Academic Earth
  • 10. OpenTable
  • 11. Google
  • 12. YouTube
  • 13. Wolfram|Alpha
  • 14. Hulu
  • 15. Vimeo
  • 16. Fora TV
  • 17. Craiglook
  • 18. Shop Goodwill
  • 19. Amazon
  • 20. Kayak
  • 21. Netflix
  • 22. Etsy
  • 23. PropertyShark.com
  • 24. Redfin
  • 25. Wikipedia
  • 26. Internet Archive
  • 27. Kiva
  • 28. ConsumerSearch
  • 29. Metacritic
  • 30. Pollster
  • 31. Facebook
  • 32. Pandora y Last.fm
  • 33. Musicovery
  • 34. Spotify
  • 35. Supercook
  • 36. Yelp
  • 37. Visuwords
  • 38. CouchSurfing
  • 39. BabyNameWizard.com’s NameVoyager
  • 40. Mint
  • 41. TripIt
  • 42. Aardvark
  • 43. drop.io
  • 44. Issuu
  • 45. Photosynth
  • 46. OMGPOP
  • 47. WorldWideTelescope
  • 48. Fonolo
  • 49. Get High Now
  • 50. Know Your Meme

Para los que utilizamos internet diariamente seguro que tenemos más de 50 sitios web en nuestros marcadores, basta con echar un vistazo en el navegador para ver la lista que se despliega. A partir de aqui, seria más interesante que cada persona elabore su propio listado:

¿Cuales son para ti los 50 mejores sitios web de internet?

¿Qué webs son de más utilidad para ti?

Mejores sitios web según TIME.

Redes sociales por países [2009]

Publicado por Ignacio con fecha Agosto - 30 - 2009 Comentar

El uso de las redes sociales por países en el mundo muestra transformaciones económicas por la expansión de grandes empresas en internet y por el acceso a determinadas tecnologías por parte de la población. Se observa la creciente globalización y la censura de determinados regímenes políticos en Oriente Medio y Asia sobre los mayores sitios web occidentales. También que en muchos países de África subsahariana no hay datos, por la baja penetración de internet a buena velocidad y por aislamiento del régimen en el caso de Corea del Norte.

Los mapas siguientes están creados por Vincenzo Cosenza, basándose en usuarios registrados y nivel de tráfico según alexa, aunque como sabemos lo más fiable es la actividad de los usuarios que más comparten información y participan en grupos. Se trata de un estudio de las principales redes sociales generalistas como facebook, con más de 200 millones de usuarios, esto es, no debería incluir sitios sin otro propósito que ligar, aunque es verdad que aparece Badoo, ni comunidades dedicadas a aficiones concretas como la fotografía Flickr, 500px, o redes estrictamente profesionales como Linkedin.

redes sociales por países 2009

redes sociales por países 2009

Myspace ha perdido su liderazgo en casi todo el mundo salvo Guam, entregando el trono a Facebook que domina en el continente americano, en los países anglosajones y en el mediterráneo. Con algunas excepciones: en México, en toda centroamérica, en Perú y Ecuador todavía el primer puesto es de Hi5, también en Portugal, Rumanía, Mongolia y Tailandia. En Países Bajos se usa la red Hyves. En Brasil y en India la primera red social es Orkut. Entre los países eslavos, V Kontakte es la primera red social en Rusia, Bielorrusia, Ucrania y Kazajistán. En Hungría se usa Iwiw, en República Checa es Lidé, One en Lituania, Draguiem en Letonia y en Polonia es popular Nasza-Klasa. En China se usa QQ, con 300 millones de usuarios activos, dada la demografía del país no es tan chocante, en Japón los internautas prefieren Mixi. En otros países del sudeste asiático también hay redes sociales particulares como Cyworld en Corea del Sur, Friendster en Filipinas, Zing es utilizada en Vietnam y Wretch en Taiwan. En oriente próximo y países islámicos como Libia, Siria, Arabia Saudí, Oman y Yemen la red social más utilizada es Maktoob.

Entre algunos de los países analizados, el top 3 de redes sociales utilizadas es:

En Estados Unidos las redes sociales más utilizadas son facebook, myspace, twitter.
En Reino Unido son facebook, bebo, myspace.
En Francia son facebook, skyrock, myspace.
En Alemania se utilizan facebook, studiVZ y myspace.
En Italia las tres preferidas son facebook, netlog, badoo.
En España se usan más facebook, tuenti y fotolog.
En Rusia los internautas se conectan en V Kontakte, Odnoklassniki y LiveJournal.

Encuentra un millón de libros digitales gracias a Google Books

Publicado por Ignacio con fecha Agosto - 28 - 2009 Comentar

Google, en su proposito por crear una enorme biblioteca online, ofrece un millón de libros electrónicos gratis, a través de Google Books, se pueden buscar o utilizar las categorias, las descargas se ofrecen en formato EPUB una alternativa al clásico PDF, que seguirá disponible. EPUB es un formato ligero para libros digitales que permite que el texto se acomode de forma automática a las pantallas generalmente de tamaños pequeños de los ebook readers y diferentes al libro original. Es un formato gratuito y abierto, la mayor parte de los lectores de libros digitales que hay en el mercado no pondrán dificultades a este formato.

Dentro de ese millón de libros podemos encontrar todo tipo de títulos distribuidos por categorias, en mi caso he encontrado Los diez libros de Diógenes Laercio.

Google Books

En el caso de los libros que se pueden localizar en la biblioteca de Google Books pero que no están disponibles para su descarga, Google incorpora en la parte izquierda una relación de sitios donde se pueden comprar. En la parte superior derecha está la función descarga y en general la navegación por Google Books es bastante sencilla.

La idea de Google en su proyecto de Google Books es, no sólo dar acceso a la literatura de forma mucho más rápida y libre sino ahorrar una barbaridad en gastos y contribuir al medio ambiente. Es una obviedad darse cuenta de esto, ¿podriamos acaso estimar el recorte en papel, impresión, cubiertas de un catálogo con un millón de libros?, ¿cuanto costaria dar a cada estudiante una copia en un libro corriente de alguno de los títulos en comparación con el formato digital?, ¿y de toda una biblioteca?

Puedes enterarte de las novedades en Google Books a través del blog de Google: Booksearch.

Youtube hace más abierto su programa de monetización de videos

Publicado por Ignacio con fecha Agosto - 26 - 2009 Comentar

Youtube ha sido cuestionado muchas veces, por sus politicas ante la protección del copyright, por su criterio en los contenidos permitidos y por el modelo de negocio defendido por Google pese a que se publicasen noticias sobre las pérdidas que le ocasionaba a Google, mantener un portal de videos como Youtube con enorme gasto de recursos y no tantos ingresos por publicidad.

Una de las maneras con las que Youtube ha recompensado la creación de videos originales y sobretodo, contenido propio de autores, es a través de su programa de monetización por publicidad en videos o YouTube Partnership Program. Los autores con perfil en Youtube que han contribuido de forma regular a crear y compartir videos que se han vuelto muy populares, han sido recompensados con su admisión en un programa de publicidad y compartia ganancias por los ads que se visualizan en la parte inferior de los videos.

Google fue seleccionando a dichos usuarios que aportaban más a la comunidad, lo cual es un sistema bastante justo que se puede extrapolar a otras comunidades, donde los mejores aportes son recompensados. En un anuncio realizado a través del blog oficial de Google, parece que el programa va a ser más abierto.

Programa publicidad Youtube

El programa de monetización de videos YouTube Partnership Program compartirá a partir de ahora ganancias con videos individuales que hayan resultado especialmente populares, como los videos virales que todo el mundo comparte y son enlazados desde foros y sitios web. Puedes leer el comunicado de Shenaz Zack, Manager en Google, lo que explican es que si tenemos un video seleccionado tendremos la posibilidad de mostrar publicidad y para recibir las ganancias cada mes, será necesario tener una cuenta Google Adsense.

Videos seleccionables para el programa de publicidad de Youtube

Seguramente os preguntareis que tipo de videos serian aptos para ser seleccionados en el programa de publicidad de Youtube, pues nos dan algunos ejemplos, a mi me ha gustado especialmente este video:

Este video muestra a dos nutrias nadando o más bien descansando boca arriba sobre la superficie del agua mientras se dan la mano, el video fue captado por Cynthia Holmes en el acuario de Vancouver. Esta curiosidad ha gustado muchisimo y se ha vuelto muy popular, por ser una escena adorable. En este momento, mientras escribo esta entrada, el video tiene 12928964 de reproducciones o veces visto, con 39996 votaciones positivas. Esto si que es un video popular.

Internet es un universo enorme y en constante crecimiento

Publicado por Ignacio con fecha Agosto - 4 - 2009 Comentar

Internet tiene cosas buenas y cosas malas, cada dia hay nuevas webs que pueblan la red, sin que nos demos cuenta, algunas son servicios geniales o sitios útiles de información, luego hay otros sitios que no nos son de mucha ayuda a las personas.

Sobre el ritmo de crecimiento de las páginas web, Google publicó una entrada en el año 2008 donde anunciaba que su buscador ya indexaba más de 1 trillón de direcciones web diferentes. No se detiene, la red crece tanto que una persona necesitaría aproximadamente 31.000 años para visitar todas las páginas de Internet y eso que apenas nos paramos a leer más de 5 minutos al dia en la mayoria de las webs.

Con datos actualizados al 30 de julio de 2009, la Oficina del Censo de los Estados Unidos calcula que la población mundial es de 6.774 millones de personas. Haciendo cálculos rápidos obtenemos que hay unas 148 páginas disponibles por cada ser humano en la Tierra. Si una persona dedicara un minuto a cada una de las URLs existentes en todo internet, necesitaría 31.000 años completos para entrar a todas las webs que existen. Pero es que si además de visitarlas se molestara en leerlas, debería destinar 600.000 décadas a rastrear todos los contenidos publicados en internet.

Según Mark Higginson, representante de Nielsen Online, el número de internautas a nivel global ha aumentado un 16% en el último año hasta el punto de que en estos momentos hay 1.460.000.000 millones de personas que se conectan regularmente. Es decir, que el 23,8% de la población mundial navega por la Red.

Usuarios conectados a internet por paises

Si se observa el mapa de usuarios conectados por paises del mundo, el país que cuenta con más internautas conectados es, China, aunque juega a su favor el número total de habitantes y que son una potencia económica emergente con 298 millones de usuarios, casi tantos como habitantes totales tiene Estados Unidos que anda en el segundo puesto. A continuación se sitúan, Japón, India, Brasil (no está nada mal), Alemania, Reino Unido, Francia y Corea del Sur. Australia que tiene una cifra relativamente inferior, sigue estando por encima de paises hispanohablantes como España, Chile, Argentina, Colombia, México.

Visto en AbadiaDigital.

El SGAE propone reducir la velocidad a los usuarios que usen P2P

Publicado por Daniel Garcia con fecha Junio - 8 - 2009 Comentar

El tema de la piratería y los programas P2P ya llevan unos meses debatiéndose y tratando de aprobarse leyes ridículas en todo Europa. En Francia se aprobó por ejemplo que los usuarios que descarguen material protegidos por derechos de autor serán avisados mediante E-Mail o algún sistema virtual, de seguir violando derechos, le llegara una carta documento y si hace caso omiso se le terminara por desconectar Internet.

Una cosa de locos y a veces ridícula que traerá cola, por otro lado el SGAE (Sociedad general de Autores y Editores), descarta seguir el modelo Frances y lo que propondrá a las operadoras que ofrezcan el acceso a la Web es la de disminuir la velocidad de conexión a aquellos usuarios que descarguen material prohibido en redes de intercambio como los P2P.

A nivel técnico esta no es un impedimento para las empresas que ofrecen el servicio y de esta forma no pierden sus clientes, esto es algo que se realiza en muchas partes del mundo mucho antes que se empiecen a debatir este tipo de políticas, muchos operadores bloquean los puertos de acceso a las redes de intercambio para disminuir el trafico y la conexión de sus usuarios y no porque les interese que no se descargue material con copyright.

Fuente: AdslZone