Introducing
Your new presentation assistant.
Refine, enhance, and tailor your content, source relevant images, and edit visuals quicker than ever before.
Trending searches
Es en este sentido la insistencia del diseño de proyectos e interfaces centradas en los usuarios. Imaginen una persona no vidente intentando cruzar una calle sin semáforo sonoro. Recuerden, algunos tal vez todavía tengan, cómo era discar un número telefónico. En la actualidad hay celulares que son capaces de reconocer el nombre de algún contacto en el directorio que le cargamos. Muchos de estos problemas están extensamente tratados por Nicholas Negroponte en “Ser digital”, pero también por Jacob Nielsen, un gurú de la usabilidad, “ Be Succinct! (Writing for the Web)”
Definiciones de usabilidad
(neologismo traducido del inglés usability)
de la Organización Internacional para la
Estandarización (ISO):
ISO/IEC 9126:
- "La usabilidad se refiere a la capacidad de
un software de ser comprendido, aprendido,
usado y ser atractivo para el usuario, en
condiciones específicas de uso"
ISO/IEC 9241:
- "Usabilidad es la efectividad, eficiencia y
satisfacción con la que un producto permite
alcanzar objetivos específicos a usuarios
específicos en un contexto de uso específico"
Elementos básicos
del diseño
Software propietario
y libre
Hackers y crackers
Cabe aclarar que hacker es un experto en informática que se interesa en explorar los sistemas informáticos para saber sobre ellos y que está dispuesto a compartirla con otros para aprender más con un objetivo constructivo. Se ha popularizado la versión de los piratas informáticos cuya denominación más acorde sería cracker, es decir quien hace un uso malicioso y dañino de su conocimiento
De computadoras, hippies, rock and roll y cultura libre
En los primeros años de la informática y los primeros años de la Internet el código fuente del software estaba disponible para todos los usuarios. Hasta ese momento lo común era que los programadores compartían las mejoras a los programas y de este modo el crecimiento fue sensacional. Un alto porcentaje de la tecnología que sustenta a la Internet es deudora de aquel espíritu y de aquellos esfuerzos.
Fue a partir de la separación de hardware y software que surgió la idea del software como un bien comercializable. En tanto las computadoras comenzaron a popularizarse, surge la idea de tomar el software (el código fuente que define las operaciones) como un elemento pausible de ser registrado como propiedad intelectual, dando inicio al mercado del software. Se genera de esta manera al desarrollo del software “propietario”. Hacia fines de la década del 70 y principios de la del 80 aparecieron empresas que cerraron los códigos fuentes y comenzaron a vender el software por separado.
Quedan definidos de esta manera dos maneras de concebir el software, por un lado se lo concibe como una producto fruto del trabajo cooperativo, que se ofrece para su utilización, mejoramiento y adaptación. Es importante señalar que la gratuidad si bien es una característica de este tipo de software, no es la característica esencial, ya que existe software propietario que es gratuitos, por ejemplo el Internet Explorer.
Por el otro, el software propietario se entiende como una pieza sujeta a las leyes de propiedad. En este caso el usuario sólo adquiere el derecho a utilizarlo, pero no a ver el código originario, ni a modificarlo y compartirlo.
En los últimos años, la posibilidad del desarrollo de comunidades en línea focalizadas al desarrollo de software ha dado un nuevo impulso al ideal del modelo de cooperación, que se opone con fuerza al modelo del software propietario. Dentro de este grupo se reconocen dos ideales:
Richard Stallman oponiendo
open source y free software
Yochai Benkler en TED
La nueva economia open source
GNU/Linux y Ubuntu (Linux para seres humanos)
En los últimos años el sistema operativo GNU/Linux [ver Curso de Introducción a GNU/Linux: Historia, Filosofía, Instalación y Conceptos Básicos] se ha ido acercando progresivamente al público no especializado. Si bien continúa siendo relativamente poca la gente que lo utiliza, es innegable su enorme crecimiento.
Linus Torvals fue el creador del núcleo del sistema operativo y quien extendió el proyecto a la comunidad para lograr un sistema operativo basado en el trabajo de la comunidad. El nombre del proyecto combina su nombre pila con el del sistma UNIX (Linux). Las diversas distribuciones [ver Distribuciones GNU/Linux en la Wikipedia] son diferentes derivaciones del núcleo central del software en diferentes "versiones". De todas las distribuciones, Debian [Ver sitio de Debian en español] es la que representa más cabalmente el espíritu GNU/Linux, ya que todos los aportes son de quienes desinteresadamente han ido agregando y modificando el sistema operativo y sus componentes.
Pero la que ha cobrado una gran popularidad es Ubuntu Linux [http://www.ubuntu.com/, Ubuntu (distribución Linux) en Wikipedia y también Especial Ubuntu: historia y filosofia linux para los seres humanos], creada en 2004, inspirada en un movimiento pacifista sudafricano liderado por el obispo Desmond Tutu, y sustentada económicamente por Mark Shuttleworth y la empresa Canonical Ltd., se propuso, en base a la distribución Debian, empaquetar una distribución que pudiera mejorarse y acercarse aun más a los usuarios tanto domésticos como corporativos, para sistemas operativos de escritorio o servidores.
Lo que logró Ubuntu es acercar al usuario "normal" sin demasiada preparación tecnológica a instalar y utilizar Linux, ya que la instalción fue concebida de manera sencilla, de manera similar a Windows. La interfase gráfica también fue pulida de manera de acercar la "semántica" de uso a lo "convecionalmente" conocido.
Con este movimeinto hacia la simplicidad de uso una vez que se ha logrado un nivel de maduración en Linux no es de extrañar que cada vez más se vean en el mercado la comercialización de computadoras que traen instalado alguna distribución de Linux. El ingreso al mercado de las netbook (compuatdoras de tamaño muy reducido) se realizó utilizando una distribución de Linux que aseguraba su buen funcionamiento con las capacidades limitadas de estos equipos
Hardware libre
Respecto al hardware,”libre” significa disponer de los planos de diseño de los componentes y las especificaciones de sus interfaces.
Con mucha frecuencia los planos son secretos, pero de a poco va habiendo más compañías queinforman al menos las especificaciones de comunicación de sus interfaces, lo que ya es un paso importante. El problema es que sin estos datos no se puede establecer si el hardware hace lo que el fabricante dice, sin poder tener un contrro completo sobre los procesos que se realizan internamente.
Sobre el movimiento de open hardware
http://ww2.grn.es/merce/2004/openhard.html
Software libre y los
estados nacionales
Software libre y los Estados Nacionales
En una sociedad democrática, toda regulación de la conducta de los ciudadanos debe estar sujeta a los principios de transparencia y escrutinio público. Por estas razones, los movimientos de software libre sostienen que los Estados Nacionales no pueden permitirse utilizar software propietario.
El problema de la pérdida del control sobre el funcionamiento de una computadora aparece cuando el modo en que opera alguno de estos niveles está cerrado. Es decir, que no se puede saber exactamente que está haciendo la computadora en un momento determinado, y por lo tanto se pierde el control sobre la información digital que está manipulando. El problema se agudiza si se considera que quien contruyó y programó la computadora y los programas en uso si tiene los planos (o los códigos fuente). El control no lo tiene el usuario sino el fabricante.
Pueden distinguirse, grosso modo, tres grandes grupos, los sistemas operativos, los formatos y las aplicaciones.
Software libre. ¿Un modelo económico sustentable?
Más allá de la controversia ética y filosófica respecto al software libre/propietario surgen críticas sobre la posibilidad de sustentabilidad económica de tales proyectos. En los últimos años, grandes empresas como IBM, Sun Oracle, están desarrollando programas de desarrollo de software libre que encuadren en una lógica comercial.
Francis Pisani se pregunta si existe un capitalismo open source en:
http://www.francispisani.net/2005/03/existe_el_capit.html
También vale la pena leer su comentario sobre la Open Source Business Conference
“Una de las más importantes es que, gracias a open source, el mercado de software ya no está dominado por los vendedores que solo piensan en “atraer a los clientes a su silo y a guardarlos ahí”, una situación conocida en la teoría económica como “lock-in” (de encerrar con llave).
Los usuarios pueden escoger y disponen de un margen de maniobra mayor. Open source presenta, desde este punto de vista, una liberación para las empresas y sus responsables informáticos.”
http://www.francispisani.net/2005/04/open_source_con.html#more
Un mini catálogo de catálogos de programas de código abierto alternativos los propietarios
http://alts.homelinux.net/
Para ampliar
Una lista de software con la licencia GPL:
http://directory.fsf.org/GNU/
y en: http://www.osmosislatina.com/diversos/open_source.htm
Se puede obtener software open source en: http://www.sourceforge.net/
En: http://es.openoffice.org/ se encuentra una suite de ofimática en español (hay versiones en muchos otros idiomas), multiplataforma.
Los proyectos de Mozilla para aplicaciones relativas al uso de la Internet, como navegadores, e-mail, instant messenger, editor html, etc.
Nacimiento del proyecto GNU e interesantes reflexiones sobre la licencia GPL y la FSF
La neutralidad de la red o net neutrality se deriva de entender la red como un bien común, un espacio de interacción que permite la libre circulación de información y a partir de las aplicaciones web 2.0 de manera mucho más intensa la interacción entre las personas. Esto significa que todos pueden hacer circular su mensaje, no existen fronteras ni restricciones al flujo de los contenidos y los dueños de la infraestructura (los carriers o ISP proveeedores de servicio de internet) no pueden regular o filtrar el tráfico de bits, se trata de la preservación de la circulación de datos sin restricciones de contenido, sitios ni plataformas.
Definición del sitio Save the Internet:
http://www.savetheinternet.com/
(Traducción libre): Es el principio-guía para preservar Internet libre y abierta. Puesto simplemente, Net Neutrality significa no discriminación. Net Neutrality advierte sobre la administración de velocidad de los proveedores de servicios de Internet basada en origen, propiedad o destino.
Net Neutrality es la razón por la que Internet ha permitido la innovación económica, la participación democrática y la libertad de expresión en línea. Protege los derechos de los consumidores a usar cualquier equipamiento, contenido, aplicación o servicio sobre una base de no discriminación sin interferencia de los proveedores de Internet. Con Net Neutrality, la única tarea de las redes es transportar datos - y no elegir datos a privilegiar con servicios de mayor calidad.
Propiedad de la Informaciacion
(del diccionario de uso de la lengua española de María Moliner)
Palabra inglesa con que se consigna en los libros, generalmente en la anteportada, hecho de estar registrado y garantizado el derecho exclusivo de su reproducción, con la expresión de la fecha y la persona o la entidad en favor de la cual se establece ese derecho. ¤ (masc.). Esa consignación: 'El copyright es de 1958'.
Cuando nos referimos al vocablo en inglés copyright © es en relación a una reserva de derechos particulares. En el terreno de los programas la consecuencia es la de un código cerrado que no puede ser modificado por otros programadores. La ventaja es que las empresas proveen de una garantía por el funcionamiento y, hasta cierto punto y dependiendo del programa, las actualizaciones.
Creative Commons
Se trata de otra propuesta alternativa al copyright tal como se definió con anterioridad, que se está extendiendo rápidamente. Se emparenta con los proyectos GNU, copyleft y las iniciativas sobre código de fuente abierta, pues plantea la posibilidad de que el autor conceda diversos tipos de permiso de copia, distribución o alteración con ciertas condiciones: en general que se reconozca y se cite la fuente, se continúe con el mismo tipo de licencia y que no sea utilizada para fines comerciales.
El espíritu de creative commons es modificar la percepción de la idea de propiedad intelectual hacia el estímulo de los intercambios colaborativos entre todos los actores involucrados, sea entre creadores, con los usuarios y alentando a los usuarios a ser creadores. Un ejemplo de esta idea, es el de los textos en los blogs.
En esta propuesta se presentan diversos modelos de licencia que pueden aplicarse:
Atribución: permite copiar, distribuir, mostrar y ejecutar el trabajo patentado y todos los derivados del mismo. Pero dando siempre testimonio de la autoría del mismo
No derivación del trabajo: permite a otros copiar, distribuir, mostrar y ejecutar solo copias literales del trabajo patentado, no estando autorizado ningún tercero a realizar trabajos derivados del mismo.
Igualmente compartido: permite a otros realizar trabajos derivados pero únicamente bajo una licencia idéntica. Este tipo de licencia, únicamente aplica a obras derivadas.
No Comercial : permite a otros copiar, distribuir, mostrar y ejecutar el trabajo patentado y todos los derivados del mismo, pero únicamente con propósitos no comerciales.
http://www.ted.com/talks/larry_lessig_says_the_law_is_strangling_creativity.html
Copyleft
En oposición a este modo de proteger los derechos de autor, los impulsores del software libre han creado el concepto de copyleft http://www.gnu.org/copyleft/copyleft.es.html
(en particular a quien se le ocurrió fue a Richard Stallman) apelando a un juego de palabras en inglés, para marcar la oposición con copyright. Se puede leer como derecho de copia (copyright) o copia que se deja o se permite (copyleft) y apela a la oposición lateral derecha (right ) eizquierda (left).
El problema de la preservación de los datos digitalizados está en el centro de la escena. En muchas ocasiones al optar por una determinada tecnología se está definiendo la posibilidad de reutilizar los datos en el futuro, siempre y cuando exista el respaldo para poder seguir utilizando. Quienes llevan utilizando la computadora desde hace varios años, se encuentran en general con que a lo largo de su historia han utilizado diversos programas que con el correr del tiempo han caído en desuso, y que en la actualidad los datos y trabajos producidos son irrecuperables, ya que no son reconocidos por ninguna aplicación, y la aplicación original sólo corre en máquinas con viejos sistemas operativos, esto sólo en el correr de unos pocos años. Al ampliar la escala, toda decisión se vuelve mucho más delicada, considérese las decisiones a nivel de grandes instituciones y Estados Nacionales.
Al abordar la elección de una aplicación, debe tenerse en cuenta su proyección de supervivencia hacia el futuro. ¿Permanecerá la empresa en el mercado, serán utilizables y recuperables los datos y productos producidos dentro de varios años? En este sentido los proyectos de software libre y código abierto, sostenidos por una red de trabajo colectivo, pueden brindar más seguridad que los softwares propietarios, ya que en este último caso el usuario y el patrimonio documental quedan prisioneros de las decisiones o la supervivencia de la empresa, y aun así ni siquiera hay garantías de preservación de los datos.
La constitución de un lenguaje universal para el tratamiento e interconectividad de los datos
Como se ha visto en sesiones anteriores, la creación de la www fue posible, entre otras cosas, al establecimiento de un lenguaje común de marcado de hipertexto, el HTML. Es hasta el momento una herramienta fabulosa para publicar contenidos, pero es un poco limitado. Lo que hacen los lenguajes de marcado es agregar al contenido del documento etiquetas que indican el tipo de información de que se trata. De este modo, es posible buscar, seleccionar y mostrar la información en él contenida.
Desde su navegador es posible visualizar el código fuente de una página web, pulsando en el menú: Ver Código fuente, Se desplegará una página en la que se verá acompañando el contenido una serie de etiquetas que indican a veces la categoría de contenido y a veces de que modo mostrarlo.
El XML (acrónimo del inglés eXtensible Markup Language, lenguaje de marcado ampliable o extensible) es en realidad un metalenguaje de marcado estructurado. Fue recomendado por el Consortium W3C en 1998.
El XML sirve para intercambiar información estructurada entre diferentes plataformas. Se puede usar en bases de datos, editores de texto, hojas de cálculo, y casi cualquier aplicación que puedan imaginarse. Puede estructurarse información de disciplinas como: química, física, matemática, dibujo, lingüística, etc. Este intercambio se produce a “bajo nivel”, es decir apelando sólo al marcado de la información, independientemente de como cada plataforma lo muestre.
Cuando se afirma que se trata de un metalenguaje, significa que el contenido se marca por categorías y no por el modo en que vaya a verse. Es decir que si tenemos un apellido y un nombre de un autor de un texto, podremos marcarlo con etiquetas específicas con un gran nivel de detalle y luego asociar una hoja de estilo que defina de que modo deberá mostrarse ese particular contenido en ese documento. En este caso, la hoja de estilo podría definir "todos los apellidos de color amarillo y en mayúsculas" y todos los nombres en rojo e itálica.
Linus Torvals
Para saber mas.
Hacker != Cracker
http://www.microsiervos.com/archivo/internet/hacker-cracker.html
Pantalla de Ubuntu
Isologo de ubuntu
open office
La Free Software Foundation
La OSI (Open Source Initiative) http://www.opensource.org , liderada por Eric Raymond http://www.catb.org/~esr/, ha adoptado una posición menos intransigente, permitiendo que el código fuente sea copiado, modificado y distribuido en cualquier forma, sin restricciones de ningún tipo, lo cual deja la puerta abierta para su conversión en software propietario'
(Fundación para el Software Libre) y el proyecto GNU (acrónimo recursivo que significa GNU is not Unix, que ganaría un gran impulso al sumarse el núcleo Linux), fundados por Richard Stallman http://www.stallman.org/, representan los pilares defensores de la política de garantizar la continuidad de los códigos fuente abiertos, que refleja el trabajo continuo y coordinado de una gigantesca comunidad de programadores y usuarios que aportan al crecimiento de estos proyectos. No es condición suficiente la de publicar el código fuente para hablar de Licencia General Pública (GPL), debe haber libertad de copia, modificación y distribución, resguardando la posibilidad de convertirlo en privado.
http://www.ted.com/talks/lang/eng/yochai_benkler_on_the_new_open_source_economics.html
Sobre diseño centrado en el usuario
por Eduardo Mercovich
Diseño centrado en el usuario (DCU): experiencias, interacción, interfaces y
usabilidad.
A partir de julio de 2002 Eduardo Mercovich brinda una serie de conferencias
acerca del Diseño centrado en el Usuario (DCU) cuyo material escrito está
disponible aquí:
http://www.gaiasur.com.ar/infoteca/dcu-2002/dcu-2002.html
Link: Fundacion Via libre
http://www.vialibre.org.ar/
Jacob Nielsen
Ingeniería de la Usabilidad
por Fernando Sáez Vacas
Te dicen que aproximadamente la mitad del esfuerzo y del coste de desarrollo de una aplicación se lo lleva hoy la interfaz de usuario gráfica y casi ni te lo crees,
de lo desproporcionado que a primera vista parece.
Y, sin embargo, es verdad, aunque en la medida en que los métodos y técnicas de la ingeniería de la "usabilidad" prosigan su avance, esos costes irán
lógicamente disminuyendo. Pero lo que no suscita duda es la irreversibilidad del enfoque de "usabilidad", que, para el autor, es un componente de uno de los
nuevos paradigmas de la tecnología de la información.
Para seguir leyendo:
http://www.gsi.dit.upm.es/~fsaez/OtrosArticulos/usabilidadp.html
Para saber
más
Este principio, se ha visto amenazado en los últimos años a partir que diversas empresas han propuesto la idea de diferenciar y cobrar para que la información fluya más rápido. Se trata de poner "peajes" en la autopista de la información. Aquellos paquetes de información que hayan "pagado" su peaje se asegurarán un tránsito más rápido, en tanto los paquetes de información que no hayan pagado circularán de manera más restringida. (Pablo Mancini en su artículo, citado en los recursos utiliza la metáfora de autopista y la colectora). Diversas organizaciones sociales han tomado la defensa del principio de "net neutrality" para asegurar que quede legislado y asegurado en cada país. En el caso de Latinoamérica, Chile es uno de los países pioneros que ha avanzado para lograr protección legal este principio . ver nota: http://www.neutralidadsi.org/2007/09/proyecto-de-neutralidad-aprobado-por-unanimidad/
Pablo Mancini en Perfil:
La batalla de Google contra las empresas de Internet.
http://www.perfil.com/contenidos/2008/02/22/noticia_0030.html
Diseño web centrado en el usuario:
Usabilidad y arquitectura de la información
por Yusef Hassan &
Francisco J. Martín Fernández & Ghzala Iazza
Posteo de Julio Alonso
Neutralidad en la red
http://www.merodeando.com/2006/05/25-neutralidad-de-la-red
Entrada wikipedia http://es.wikipedia.org/wiki/Neutralidad_de_red
El hashtag de twitter sobre neutralidad de la red:
http://bit.ly/KI4FyE
Publicación disponible en:
http://www.hipertext.net/web/pag206.htm
Financiacion
En el caso del Estado el problema es más grave pues el costo de las licencias genera una transferencia de dinero a las empresas que podría evitarse. Pero más serio aun es el manejo de información privada y sensible de sus ciudadanos con herramientas de código cerrado, pues la consecuencia puede ser que ni siquiera pueda establecerse quien tiene acceso a dicha información.
Seguridad/Privacidad
Sobre las aplicaciones, se pueden considerar argumentos similares, pues no es improbable que las aplicaciones, especialmente las que puedan conectarse a Internet, envíen información al fabricante sin el consentimiento del usuario.
Control:
En el sistema operativo el problema es crítico, pues tiene todo el control sobre los recursos del hardware, (lectura y escritura de disco duro, conexión a internet, impresión, etc.), todas las aplicaciones deben pasarle la información que manejan para poder almacenarla en un disco o enviarla por internet o ponerla en la memoria. Si no se dispone del código fuente no se sabe que hace en la realidad. El fabricante podría dejar alguna “puerta trasera” para acceder a la computadora, hacer que aplicaciones de otros fabricante funcionen deficientemente, para mencionar un par de ejemplos simples.
Formato
En cuanto a los formatos, la información almacenada en estos formatos sólo puede ser decodificada correctamente por el fabricante creador del formato. Luego, una vez que la información correspondiente a un trabajo ha sido guardada en un formato cerrado, para poder acceder a dicha información se dependerá de las aplicaciones cerradas del mismo fabricante. Este mecanismo hace que la información quede rehén de un determinado software, impide que los clientes puedan salir y que los competidores puedan entrar. Si se agregan los cambios periódicos de formato para “empujar” a las actualizaciones, así como compromete la perdurabilidad de la información a largo plazo, así como la interoperatibidad entre diversos programas de distintos fabricantes.
Tux del sur
¿Cuáles son los usuarios que van
a participar, con qué conocimientos
previos, roles, derechos, obligaciones,
qué se espera de ellos?
Pensar un diseño como las piezas de un tetris que van armándose en cada jugada
¿Qué tareas se espera
que desarrollen,
con qué objetivos,
para qué lo harían,
dirigido a quiénes?
¿En qué contextos
pueden participar
los usuarios, la escuela,
los hogares, los
locutorios, cibercafés,
conectados a la Internet,
con conexión telefónica,
en una red local, etc.?
Diego F. Craig
Para profundizar:
Nota sobre la preservación de los datos Clarin, 14 de julio de 2004 http://edant.clarin.com/suplementos/informatica/2004/07/14/f-00401.htm
Copyright.
Tim Berners-Lee: El año en que los datos de libre acceso se globalizaron
http://www.ted.com/talks/tim_berners_lee_the_year_open_data_went_worldwide.html
" Acabo de escribir infinita. No he interpolado ese adjetivo por una costumbre retórica; digo que no es ilógico pensar que el mundo es infinito. Quienes lo juzgan limitado, postulan que en lugares remotos los corredores y escaleras y hexágonos pueden inconcebiblemente cesar, lo cual es absurdo. Quienes la imaginan sin límites, olvidan que los tiene el número posible de libros. Yo me atrevo a insinuar esta solución del antiguo problema: La biblioteca es ilimitada y periódica. Si un eterno viajero la atravesara en cualquier dirección, comprobaría al cabo de los siglos que los mismos volúmenes se repiten en el mismo desorden (que, repetido, sería un orden: el Orden). Mi soledad se alegra con esa elegante esperanza."
http://focus007.wordpress.com/2008/02/07/rescatando-al-jorge-luis-borges-las-ruinas-circulares/
Tim Berners-Lee acerca de la futura Web
Instantáneamente al leer el tema que se está tratando me vino a la mente el video denominado "Prometeus: La Revolución de los medios", desarrollado a principios del 2007 por la consultora en sociología Casaleggio Associati de Italia.
Este video lo ví por primera vez a fines del 2007, es realmente para el debate, ya que desde una perspectiva temporal basada en el año 2051, un locutor cuenta lo que se fué viviendo desde el nacimiento de internet hasta su actualidad (2051).
En un punto da por abolidas las leyes de derecho de autor, por el propio Lawrence Lessig. Es interesante cómo el mismo plantea la resistencia del "viejo mundo" imponiendo medidas restrictivas a todo intercambio de archivos (tal cual lo que estamos viviendo en la actualidad).
Muestra claramente el auge de la Web 2.0 y los portales colaborativos y define muy claramente la figura del "Prosumer", productor y consumidor de información.
Habla del avance de los mundos virtuales como Second Life, pero no se focaliza en las redes sociales, que en esa época (2007) estaban naciendo y todavía no tenían la influencia que tienen hoy en día.
Realmente la producción del video a modo de "Profesías" atrae a verlo hasta el final, y genera un sinnumero de sensaciones como para un laaaaargo debate .
http://www.ted.com/talks/tim_berners_lee_on_the_next_web.html
De libros electrónicos, agua seca y otras quimeras
http://federratas.codigolibre.net/?p=205
Vínculo al trail (recorrido a vínculos básicos sobre el tema CC
http://www.educant.org/novedades/trail-sobre-creative-commons
La preocupación por ampliar las oportunidades educativas, basadas en el intercambio equitativo, en el acceso abierto a los conocimientos a través de las TIC no se reduce al plano de las reivindicaciones. De las propuestas mencionadas se puede decir que se ha generado un movimiento global de una riqueza y unas dimensiones desbordantes. Una incontable serie de ONGs, escuelas, individuos, universidades, centros de investigación, fundaciones, asociaciones generan instrumentos, espacios y recursos para investigar, publicar y difundir conocimientos y para promover espacios de educación y formación basados en las herramientas de cooperación y dialogo que facilitan las TIC. Estas iniciativas dan forma a otro modo de construir las sociedades de red o las sociedades basadas en el conocimiento
Educación, circulación del conocimiento
y ampliación de la esfera pública
Son muchas las propuestas que promulgan la idea de que el conocimiento, que es producido socialmente, contribuya al desarrollo de esferas públicas, en donde sea la totalidad de la sociedad quien pueda reaprovechar esos conocimientos, como alternativa a su apropiación privada vía patentes o el pago por el acceso a bases de datos e informaciones o la suscripción de revistas de acceso restringido. Entre ellos pueden mencionarse:
En octubre de 2003, la mayoría de las organizaciones de investigación académica alemanas e internacionales firmaron la “Declaración de Berlín” http://www.geotropico.org/1_2_Documentos_Berlin.html que insta a la transición hacia el paradigma de Acceso Abierto. En julio de 2004, el Comité de Ciencia y Tecnología de la Cámara de los Comunes del Parlamento británico, publicó un reporte en el que se recomienda que las investigaciones realizadas con fondos públicos debieran ser accesibles libre y gratuitamente a través del modelo de acceso abierto.
Conocimiento público
El Proyecto de Conocimiento Público (PKP, Public Knowledge Project), de la Universidad de British Columbia, liderado por John Willinsky, es un ejemplo de esta clase de proyecto. Este proyecto pretende mejorar la calidad académica de las investigaciones utilizando entornos en línea.
El Proyecto de Conocimiento Público está concebido para explorar en qué medida las nuevas tecnologías pueden ser utilizadas para mejorar el valor público y profesional de la investigación académica. El proyecto reúne académicos de diversos sectores y profesionales de la información para explorar los aspectos sociales y económicos implicados en la utilización de la infraestructura online y estrategias de gestión del conocimiento para mejorar, tanto la calidad académica, como la accesibilidad y coherencia de este cuerpo de conocimiento de manera sustentable y global.
El proyecto ofrece desde el año 2001, software gratuito de código abierto que permite la gestión completa para la publicación de periódicos sometidos a referato en línea. La publicación en línea apunta, según Willinsky, a compartir el conocimiento a través de comunidades de interés y al mismo tiempo permitir la indexación y la clasificación del conocimiento de modo que sea socialmente accesible. De esta forma es posible transformar el conocimiento en las escuelas, en las bibliotecas y en las universidades y transformarlo en un servicio público. Al contar con un mecanismo para la publicación y la indexación y el referato como garantía de calidad, los alumnos pueden transformar lo que hacen en la escuela, lo que aprenden en un servicio para otros.
John Willinsky