[Sur] tema de debate!
Martin Langhoff
martin.langhoff en gmail.com
Vie Feb 20 20:01:58 EST 2009
2009/2/21 Ro <rosauraa at gmail.com>:
> Internet "abierta" o no? Con un compañero en la escuela tenemos esta
Es un tema interesante, pero si bien es facil votar entre blanco y
negro, el asunto es mas interesante si miramos la realidad de las
herramientas que tenemos.
Los filtros en general funcionan bastante mal y (a) bloquean material
perfectamente sano y (b) dejan pasar un monton de cosas de las que
querrias bloquear. Si el filtro es _realmente malo_, el da~no de a+b
es grande, tan grande que mejor quitarlo.
Como hacemos filtros mejores? Los sistemas totalmente mecanicos no
andan, hay muchas veces que la computadora no puede decidir. Por eso
las herramientas contra el spam nos muestran los correos "dudosos" y
nos permiten decidir a nosotros, para "ense~arle" al la computadora.
Como funcionaria un sistema asi para contenidos en la web? Imagina que
por el filtro pasa un pedido de una pagina que el filtro considera
dudosa y... que pasa?
[ hay un monton de aspectos tecnicos que complican la cuestion, por
ahora, imaginemos que podriamos querer que pase, cual es la dinamica
_social_ que podemos armar con las herramientas que tenemos ]
Por ejemplo (que seria dificil hacer en la realidad, pero sue~o un poco...):
1 - el filtro le muestra al usuario un aviso - el contenido es dudoso,
puedes optar por verlo pero con condiciones especiales... (explicando
los pasos que siguen)
2 - si el usuario dice que si, el contenido se muestra, y en el
filtro/servidor tambien se almacena para posterior revision por otra
persona
2a - tal vez la opcion 2 esta disponible solo para usuarios de cierta
edad que puedan evaluar los riesgos / beneficios de mirar para saber
que es?
2b - oops! que pasa si el contenido "dudoso" es algo personal y
privado? por ejemplo un email o documento con resultados de un
analisis clinico?
3 - el usuario ve el contenido, con panel adicional (tal vez en un
frame o similar) que le permite decir "el contenido es permitido" o
"no, este contenido es no permitido" -- esto es para alimentar el
conocimiento del filtro, como hacemos con el SPAM.
4 - un revisor indepediente corrobora que los contenidos que los
usuarios han marcado como "permitidos" son realmente permitidos dentro
de las normas sociales acordadas para el filtrado
...
Situaciones
S1 - Que pasa si quiero ver contenido no permitido? lo busco, lo veo,
y siempre lo marco como "no permitido"? Por otra parte si el filtro
aprende como corresponde, en seguida aprende a identificar y bloquear
ese contenido prohibido antes de mostrarlo. Peque~a picardia, de corta
vida.
S2 - Un grupo de usuarios empieza a alimentar "mal" al filtro.
Contenido "dudoso" pero permitido lo marcan como prohibido. Hay
revisor... Sanciones?
S3 - Aun si el filtro es bueno, un muy peque~o % de contenido
_permitido_ va a terminar bloqueado. Como accedo a eso? Pedido
explicito de ponerlo en la "lista blanca", con responsabilidad
personal en el pedido?
- Que otras situaciones se pueden dar?
Esto es un ejercicio mental. _No es para comentarios rapidos_. Hay que
pensar bien y con tiempo como funcionan las maquinas, y como
reaccionan los grupos humanos alrededor de estos mecanismos que
podemos poner en funcionamiento...
perdon por los acentos perdidos. escasean en nz :-/
m
--
martin.langhoff at gmail.com
martin at laptop.org -- School Server Architect
- ask interesting questions
- don't get distracted with shiny stuff - working code first
- http://wiki.laptop.org/go/User:Martinlanghoff
More information about the olpc-Sur
mailing list