Herramientas utiles para el Curador de Contenidos

Actualmente el curador de contenidos se considera casi como una profesión  pero -a diferencia de otras profesiones (como por ejemplo la del creador de contenidos)- su objetivo fundamental es mantener la relevancia de la información que fluye libre o apoyada en herramientas concretas para la creación de entornos informacionales.
En un mundo cada vez más conectado y ubicuo (Web 3.0), las personas consumen todo tipo de información en cualquier momento y en cualquier lugar; además de compartirlo directamente en sus redes sociales, sin importarles demasiado si la información que retransmiten es original o ha sido “curada”.
Aquí es donde entra el rol de un Community Manager para alentar a sus seguidores a consumir el contenido que hayan curado de otros sitios en la Red. Para facilitar esta labor, les presento 8 herramientas imprescindibles para el curador de contenidos:
1) Scoop.it
3) Storify  
4) Curate.me  
6) Evernote 
7) Pinterest  


Ejemplo realizado para el curso Encontrando Tesoros en la Red: http://www.scoop.it/t/lo-oscuro-de-la-deep-web
¿Cómo preguntarle a Internet?
De acuerdo a lo aprendido en el MOOC de "Encontrando Tesoros en la Red" existen tres tipos de palabras claves: 
  1. Las palabras claves de campo temático: Son los nombres de las disciplinas y los términos imprescindibles que no pueden dejar de estar mencionadas en un documento que habla del tema de nuestra pregunta. 
  2. Las palabras claves de problema específico: Son frases breves que mencionan el asunto o su núcleo problemático más específico.  En realidad, no son palabras claves, sino frases específicas o expresiones claves, segmentos de texto insertos en un contexto que intentamos rescatar. Por eso es aconsejable incluir expresiones “en uso” que tengan que ver con el lenguaje que utilizamos habitualmente.
  3. Las palabras claves de referencias autorales: Son nombres de autores que se encuentran directamente relacionados con el problema, y que son considerados clásicos o referentes importantes en la materia. Sirven para identificar apellidos en listas bibliográficas que no siempre incluyen el nombre del autor, por lo tanto, es conveniente incluir sólo apellidos.aq


Aquí un ejemplo de un tema de mi interés, el cual es: 

"Ventajas de implementar Software Libre en instituciones educativas".

Las palabras claves de los tres tipos serían:

Campo tématico: educación software libre enseñanza pedagogía
Problema especáfico: "software libre" "uso pedagógico"
Referencias autorales: "Urdaneta" "Oyervides Zapata" "Stallman"

 Ejemplo de búsqueda en Google Académico (scholar.google.com.mx/)

1. Búsqueda avanzada en Google Acádemico:


 2. Resultado de la búsqueda

Nota: En la búsqueda solo se incluyó al autor "Oyervides Zapata". (En caso de querer obtener mayores resultados simplemete dejaríamos el autor como campo vacío).


 
MI EXPERIENCIA EN LA DEEP WEB



Esta entrada la hago para  el curso Encontrando tesoros en la red (2.ª edición), la cual es sobre el tema de Deep Web, me he tomado la libertad de compartir mi expericia en la Web profunda (no entraré en detalles solo será una reseña a grandes rasgos de mi experiencia).

Hacer un par de años fue cuando tuve acceso por primera vez a la Deep Web (web profunda), no recuerdo exactamente cuántos años fue de eso, lo que me impulsó hacerlo fue por curiosidad, para poder entrar a esta red se necesitan ciertos requisitos los cuales a grandes rasgos son:
  1. Contar con un navegador web como Tor Browser (https://www.torproject.org/projects/torbrowser.html.en). 
  2. Tener algún enlace con extensión Onion, los enlace con esta extensión no se parecen a los de la web “normal”; un ejemplo sería: sagsdgasfweuwheifodstjrtktkdgsa.onion (el enlace es solo por ejemplificar, no es real y no dirige a ninguna página en especial).
En mi caso lo que hice fue tener las siguientes herramientas para entrar y salir vivo para poder contarlo:
  1. Tener una máquina virtual con Windows 7 actualizado (preferí usar Windows por su facilidad de uso al instalar aplicaciones, por esta razón no usé un distro de GNU/Linux.
  2. Tor Browser instalado.
  3. Antivirus actualizado.
  4. Firewall actualizado (cerrando puertos en escucha, los cuales son una vulnerabilidad de seguridad). y monitoreando los procesos del sistema.
  5. Una gran lista de enlaces Onion (los enlaces recuerdo que los acababan de liberar Anonymous de Brasil).
  6. En un principio también iba a instalar Deep Freeze (lo cual al final no lo hice para ahorrar tiempo).
  7.  Tener mucha discreción sobre el tema.
Una vez teniendo todo preparado  procedí a entrar a  esa misteriosa red, al entrar a las primeras páginas te das cuenta que el diseño de estas son como las páginas web de los 90´s, no contienen ningún tipo de animación, solo contienen  texto plano y alguna que otra imagen, debo admitir que el contenido de esas páginas no es para personas sensibles, el contenido de las paginas era “raro”, repugnante, contenido digno para personas con trastornos mentales, los enlaces que tenía en mi lista era sobre varios tópicos, tales como: Wikis, Venta de drogas, información confidencial de gobiernos (eran documentos del gobierno de USA y eran sobre leyes), pedófila,  sitios de gore.
Al entrar a una página vez su contenido y alguno que otro link que te lleva a distintos contenidos del mismo sitio, es rara la página que te brinda link a otro sitio diferente.
Para la venta de algún producto se menciona mucho el pago mediante Bitcoins (es una criptodivisa concebida en 2009 por Satoshi Nakamoto), transferencia bancaria y algunos sitios también ofrecen depósitos a una cuenta western union.

En general, navegar por estos sitios es aburrido, el protocolo que usa Tor para otorgar “anonimato” hace que tengas un 20% o menos de ancho de banda para navegar vía web, teniendo que esperar hasta minutos para que cargue por completo una sitio web.

Debo admitir que solo exploré un poco en los sitios, en lo personal no me agradó el contenido, cuando me preguntan amigos o conocidos que desean entrar a la Deep Web y quieren conocer los requerimiento para hacerlo mi recomendación es que no lo hagan, les platico mi experiencia tal como la describo aquí (a grandes rasgos) y que no hay nada interesante, al menos que tengas algún tipo de trastorno mental como ya lo había mencionado anteriormente.
 
Enseñar a programar a estudiantes de una forma divertida

¿La programación en la escuela es aburrida?
En mi  opinión un mayor porcentaje depende del interés por parte del estudiante y un menor porcentaje es por parte del docente, si bien hay profesores que hacen tedioso el tema un buen estudiante hará lo posible para no sea así. 

Actualmente estoy tomando varios MOOCS en la plataforma de "Miriada X" uno de estos cursos es "Pensamiento computacional en la escuela" y el entorno de programación es Scratch, el cual es un lenguaje fácil e intuitivo, con herramientas actuales como lo es Scratch ya no hay pretexto para decir que enseñar lógica de programación y empezar a realizar los primeros programas sea frustante tanto para el profesor como para el alumno.

A continuación muestro uno de los proyectos que he realizado en el curso y que en mi opinión ha sido el mejor juego entre cientos de estudiantes (lo sé, soy modesto, je je).

Enlace del juego: https://scratch.mit.edu/projects/82456932/

PONG DRAGON BALL Z
(2 jugadores)


 Instrucciones:

1. Para iniciar dar clic en el botón ejecutar (bandera verde).

2. Para mover barra de Goku usar teclas "Flecha Arriba"  y "Flecha Abajo" del teclado.

3. Para mover barra de Freezer usar las teclas "A" y "Z" del teclado.

4. Para incrementar o disminuir velocidad de las esferas usar teclas "Flecha derecha" y "Flecha izquierda" respectivamente.


Notas:
1. Para que aparezca otro esfera del dragón teclear la tecla "P" del teclado.

2. Para reproducir y parar música dar clic en el "botón sonido".

El Ganador es quien llegue primero a 10 puntos.
Búsqueda Avanzada de Información


Saber buscar en Google requiere de cierta habilidad y/o conocimientos para poder encontrar la información deseada en el menor tiempo posible.

Existen las búsquedas avanzadas en Google empleando algunos comandos, estos comandos u ordenes nos ayudan a optimizar la búsqueda de información en Internet. En el curso de "Encontrando tesoros en la red (2.ª edición)" nos presentan el uso de busquedas avanzadas y en el cual he realizado una presentación en google docs.

En cuanto a la presentación, realizada en google docs, es por su facilidad de uso y sus opciones de compartir el proyecto con usuarios de internet, en lo personal me hubiera gustado que en el curso nos presentaran herramientas como Prezi, software mediante el cual se pueden realizar presentaciones dinámicas, lamentablemente esta herramienta para presentaciones es de pago (teniendo posibilidad de instalarlo por un periodo de tiempo de prueba), siendo una alternativa gratuita google docs.

Mi presentación sobre búsquedas avanzadas de información es la siguiente (tengo un respaldo por si alguien modifican objetos por error):

Enlace a la presentanción:


HERRAMIENTAS DE BÚSQUEDA DE INFORMACIÓN EN INTERNET

En el MOOC "Encontrando tesoros en la red" (2.ª edición), nos presentan los diferentes tipos de herramientas de búsqueda de información en Internet citandonos que cada una de ellas funciona de una manera diferente y tiene su propio propósito y su alcance. En ellas tenemos:


Los buscadores o motores de búsqueda 

Utilizan tipos de software especiales que localizan e indexan, en forma automática, las páginas Web y además todos los documentos referenciados en ellas. Un buscador está compuesto por cuatro componentes básicos: 
  • Un robot.
  • Un motor de indexación.
  • Los índices.
  • Un motor de búsqueda. 

Metabuscadores 
Los metabuscadores son “buscadores en buscadores”, es decir, son servidores web que realizan búsquedas en los índices de un gran número de buscadores y/o directorios, eliminan las duplicaciones y nos presentan un resumen de los resultados obtenidos, ordenados por relevancia y, en algunos casos, nos indican cuál ha sido el buscador de origen de dicha información. Cada uno de los motores de búsqueda de los metabuscadores funciona de una manera distinta, aunque existe un proceso interno común a todos ellos.  

Entre los metabuscadores más importantes se encuentran:
  • Metacrawler (http://www.metacrawler.com/) /Zoo (http://www.zoo.com/) Metacrawler fue uno de los primeros metabuscadores disponibles para los usuarios. La empresa denominada Go2Net dueña de su franquicia fue comprada por InfoSpace o Blucora y desde marzo redirecciona a http://www.zoo.com/(nuevo nombre e imagen del metabuscador). Pero si se siente nostalgia todavía es posible acceder al original en el Reino Unido: http://www.metacrawler.co.uk/
  • iBoogie (http://www.iboogie.com/)  Realiza búsquedas organizadas en “cluster” (conjuntos o conglomerados de ordenadores unidos entre sí normalmente por una red de alta velocidad y que se comportan como si fuesen una única computadora) y tiene un motor muy potente. Además, permite añadir pestañas solicitando buscar en bases de datos concretas que tienen a disposición del usuario y posee una búsqueda avanzada (http://iboogie.com/advanced_web.asp)
  • Ixquick (http://www.ixquick.com/esp/) El primer metabuscador que se ocupó de proteger la privacidad de los usuarios sin registrar su proceso de búsqueda y su dirección de IP.  
  • Dogpile (http://www.dogpile.com/) Es un metabuscador que retorna las búsquedas desde los motores About, Ask.com, FinWhat, Google, LookSmart, MSN Search, Teoma, Yahoo!, Bing y otros buscadores populares, incluyendo de audio y video.

Los directorios

Los directorios, también denominados buscadores temáticos, organizan la información por medio de categorías y sub-categorías que registran las direcciones (URL) y una pequeña descripción de los diferentes sitios que han sido indexados.
Son organizados en forma manual a partir del registro de sitios por parte de sus autores, y de un proceso posterior de selección y categorización jerarquizada por parte de los editores.
Entre los directorios más importantes se encuentran: 
  • Yahoo   (http://ar.search.yahoo.com/)  El equipo de Yahoo! se encargan de visitar, analizar y evaluar los sitios web y organizarlos según su contenido en categorías y/o subcategorías, como por ejemplo Educación y Formación, Salud, Gastronomía, Viajes, etc... como si de una gran biblioteca virtual se tratase. Las categorías del Directorio van de lo general a lo más específico.
  • DMOZ  (http://www.dmoz.org/World/Español/) El Open Directory Project (ODP), también conocido como DMoz (por directory.mozilla.org su nombre de dominio original) es un proyecto colaborativo multilingüe, en el que editores voluntarios listan y categorizan enlaces a páginas web. Cualquier persona puede sugerir un enlace en una categoría determinada, que luego ha de ser aprobada por un editor El proyecto está dividido en varias ramas según el idioma, y las categorías de páginas se organizan jerárquicamente dentro de cada una de las ramas.
  • Portal SEO   (http://www.portal-seo.com/directorio-  web.php) Dedicado al SEO (Search Engine Optimization) es decir al posicionamiento en buscadores u optimización en motores de búsqueda, un proceso que busca mejorar la visibilidad de un sitio web en los resultados orgánicos de los diferentes buscadores.
  • Excite (http://www.excite.com/) Es una colección de sitios y servicios web, lanzado en diciembre de 1995. Ofrece una gran variedad de contenido, incluyendo un portal de Internet que muestra noticias y el tiempo, etc., incluye además un motor de búsqueda, un servicio de correo electrónico basado en la web, mensajería instantánea, cotizaciones de bolsa, y una página de inicio personalizable por el usuario.  
Muchos buscadores incluyen además un sistema de navegación en forma de directorio y por otra parte, algunos directorios complementan sus resultados con los de una búsqueda en un buscador.  Pero es importante realizar una distinción entre estos dos tipos de herramientas de búsqueda de información, ya que, se organizan y funcionan de diferente manera. 

Guías 

Las guías temáticas están conformadas por páginas de recursos web organizadas por áreas del dominio de diversos especialistas y entidades académicas que asumen la tarea de elaborarlas. Por lo general incluyen algún mecanismo de búsqueda en sus páginas o en el sitio en general. Estos directorios anotados suelen ser de gran calidad ya que la selección de recursos, es muy cuidadosa y su actualización, frecuente.

Algunas guías son desarrolladas por Universidades y Bibliotecas, como por ejemplo:
  • Universidad de Almería. Biblioteca Nicolás Salmerón: Guías Temáticas Ir a la guía. "Las guías temáticas recogen los recursos de información disponibles en la Biblioteca agrupados en diferentes categorías: bases de datos, revistas electrónicas, revistas en papel, libros impresos, e-books, tesis y proyectos."
  • Universidad Carlos III de Madrid. Biblioteca: Guías de recursos Ir a la guía. "En estas guías encontrarás fuentes y recursos de información, tanto de la Biblioteca como una selección de recursos externos de interés.
  • Universidad de Sevilla. Biblioteca. Guías: Herramientas y guías para encontrar y gestionar la información: Guías de la BUS Ir a la guía."...podrás encontrar consejos para elaborar trabajos académicos, estrategias y formas de localizar libros, patentes, películas..., recursos de información clasificados por temas, instrucciones para el manejo de gestores bibliográficos, y mucho más." 
  • Universidad de Alicante. Biblioteca: Guías temáticas  Ir a la guía.
  • En ciertas ocasiones, varias instituciones se asocian para la elaboración cooperativa de estas guías.  Un ejemplo es la “Biblioteca Virtual WWW” (The WWW Virtual Library) http://vlib.org/
Software especializado
Para mejorar las búsquedas en la Web puede utilizarse software especializado.  Estos agentes auxiliares se instalan en nuestra PC y operan junto a los navegadores añadiéndoles ciertas funcionalidades, como el manejo de conceptos para la recuperación de la información.

Un agente de búsqueda es un programa que, imitando el comportamiento de una persona y actuando de forma autónoma, recorre automáticamente internet aprovechando la estructura de enlaces de la web. Un agente de búsqueda puede recuperar un documento en particular, o utilizar algún algoritmo de búsqueda que permita recuperar distintos documentos de la web a los que se hace referencia en un documento fuente u origen, o conforme a unos criterios predefinidos anteriormente por sus usuarios.
Un agente de búsqueda puede realizar diversas funciones como:
  • Realizar consultas con una velocidad y en un conjunto de fuentes mucho mayor que el posible para un usuario humano.
  • Informar de las actualizaciones que se producen en los sitios web que son de interés.
  • Agilizar las descargas que se realizan de internet.
  • Eliminación de correo basura o spam.
  • Búsqueda de noticias conforme a las preferencias. 
Un ejemplo es “Copernic Agent”, una herramienta realmente útil que permite la búsqueda selectiva en múltiples fuentes y la clasificación mediante potentes herramientas de análisis. Que si bien aún está disponible para su descarga, ya no brinda soporte a los usuarios desde su sitio.


Fuentes de información:

Información obtenida de documento "Las mejores herramientas" proporcionado en el curso "Encontrando tesoros en la red" 2.ª edición. (https://miriadax.net/web/encontrando-tesoros-red2ed/)
La infoxicación

¿De dónde surge el término, quién lo introdujo y a qué concepto refiere?  
 
Alfons Cornellá, fue quien introdujo el término “infoxicación” para definir “ intoxicación de información” (https://infoxicadoblog.wordpress.com).

La definición que a mi parecer mas certera es la que se describe en la página web www.eltiempo.com, y es la siguiente:  la infoxicación es la incapacidad de análisis eficiente de un flujo de información elevado. Indudablemente, el número de canales y la cantidad de información que una persona media maneja y recibe se ha incrementado enormemente en las últimas décadas, y esa nueva situación define un entorno en el que es preciso desarrollar ciertas aptitudes y actitudes a la hora de gestionar nuestra actividad.

 
¿Cómo puede la sobreabundancia de información afectar nuestro rendimiento?

La infoxicación es, en realidad, un fenómeno de incidencia muy relativa: una persona puede sentirse ‘infoxicada’ en determinados momentos, pero, por lo general, el hombre aprende rápidamente a desarrollar estrategias que impiden ese fenómeno. Vivir en un entorno intensivo en información nos enseña a priorizar y a manejar esa información de maneras más eficientes, y la tecnología –que, según algunos creó el problema– es en realidad quien nos ayuda en muchos casos a solucionarlo. El problema es que durante muchos años vivimos en entornos radicalmente unidireccionales, y una gran cantidad de la información que recibíamos era completamente pasiva, no requería de casi ninguna acción por nuestra parte. Ahora, una parte sustancial de la información que recibimos genera una respuesta, un papel activo: de oyentes o espectadores hemos pasado a ser participantes, y eso exige un esfuerzo mayor. Pero también nos lleva a una sociedad con más oportunidades, menos limitada y con un potencial mucho mayor.

¿Cómo podríamos conseguir una mejora en nuestra productividad personal?
Tal y como lo menciona Alfons Cornella el objetivo final sería que tuvieras un filtro personal de información, que la información que te entra cada día pudieras dividirla literalmente en tres grandes partes:
  • Información fatal.- que es aquella información que no te interesa en absoluto porque no tiene nada que ver con los temas que tratas.
  • Información interesante.- que es aquella que, hombre, igual algún día me interesa…
  • ¡Fuera, ya no toca! Un día me interesa, ¡no! Por eso tenemos que saber buscar. Debes concentrarte en aquella información que es realmente útil, aquella que está de acuerdo con aquellas líneas críticas que tú te has definido.

Fuentes:
Acerca de mí:

Mi nombre es Edmundo y soy un apasionado por la informática, nunca había tenido un blog por la simple razón que me cuesta trabajo expresar mis emociones y pensamientos.

Me he dedicado al soporte técnico y a cuestiones administrativas, recientemente descubrí los MOOCs y gracias a ellos estoy tomando cursos que me permitan actualizarme en cuestiones de programación (área en la cual me falta aprender demasiado), así como en tecnologías de la información.

El blog lo hago para el MOOC de "Tesoros en la Red" 2da Edición, el cual está alojado en la página web: https://miriadax.net/.

Respecto al curso anteriormente mencionado espero poder aplicar los conocimientos que adquiera para poder realizar búsquedas más efectivas en la web, así como espero que se una experiencia gratificante el realizar el curso.

Para finalizar, un saludo a todos los compañeros del curso!!!