FAQ sobre filtrado

Computer Professionals for Social Responsibility

Versión 1.0      17/11/97      Harry Hochheiser, miembro del Consejo de CPSR       hhochheiser@cpsr.org

Introducción

Vistos por algunos como una poderosa herramienta para proteger a los menores de la pornografía en línea y por otros como censorware, los filtros de contenido de Internet han generado mucha controversia, debate y confusión. Este documento intenta describir los problemas y temas planteados por los diferentes tipos de software de filtrado. Esperamos que estas preguntas y respuestas ayuden a los padres, las bibliotecas, escuelas y demás a comprender el software que pueden estar considerando o utilizando.

 

Preguntas

 

1. Lo básico

 

1.1. ¿Qué es un filtro de contenido?

1.2. ¿Por qué quieren muchas personas filtrar el contenido?

1.3. ¿Pueden desactivarse los programas de filtrado?

1.4. No quiero filtrar el contenido, pero quiero saber qué están viendo mis hijos. ¿Es eso posible?

1.5. ¿Cuál es el ámbito de acción del filtrado de contenido en Internet? ¿Cubren los filtros la WWW? ¿Y los newsgroups? ¿El IRC? ¿El correo electrónico?

 

2. Sistemas autónomos

 

2.1. ¿Qué es un sistema autónomo?

2.2. ¿Quién decide qué se bloquea y qué no se bloquea?

2.3. ¿Cómo determinan los programas autónomos qué debe ser bloqueado?

2.4. ¿Qué defectos tienen los filtros basados en listas?

2.5. ¿Qué defectos tienen los filtros basados en búsquedas de palabras claves?

 

3. La Plataforma para la Selección del Contenido en Internet (PICS)

 

3.1. ¿Qué es PICS?

3.2. ¿En qué se diferencia el filtrado de PICS del de los sistemas autónomos?

3.3. ¿Qué es un sistema de clasificación?

3.4. ¿Cómo se desarrolla un sistema de clasificación?

3.5. ¿Quién clasifica los sitios?

3.6. ¿Qué sistemas de clasificación basados en PICS puedo utilizar?

3.7. ¿Cómo utilizo PICS?

3.8. ¿Debo clasificar mi sitio?

3.9. ¿Qué debe tomar en cuenta un emisor antes de autoclasificarse?

3.10. ¿Qué problemas plantean las clasificaciones de terceras partes?

3.11. ¿Qué sucede con los sitios que no están clasificados? ¿Qué sucede si alguien clasifica erróneamente un sitio?

3.12. ¿Qué sucede si no me gustan los sistemas de clasificación disponibles? ¿Pueden desarrollar los individuos y organizaciones nuevos sistemas de clasificación?

3.13. ¿Qué defectos tiene PICS y las clasificaciones de Internet en general?

 

4. Alternativas

 

4.1. ¿Hay alternativas?

4.2. Comprendo que existen muchos problemas con los filtros y las clasificaciones. ¿Qué puedo hacer para proteger a mis hijos?

4.3. ¿Qué papel pueden jugar los proveedores de conexión a Internet?

 

5. ¿Dónde puedo encontrar más información?

 

6. Créditos

 

6.1. Reconocimientos

6.2. ¿Qué es CPSR?

 

 

Respuestas

 

1. Lo básico


 

1.1. ¿Qué es un filtro de contenido?


 

Un filtro de contenido es uno o más elementos de software que operan juntos para evitar que el usuario vea material encontrado en Internet. Este proceso tiene dos componentes.

 

Clasificación: Se utilizan juicios de valor para categorizar sitios web en base a su contenido. Estas clasificaciones pueden utilizar simples distinciones "permitido/no permitido", como las que se encuentran en programas como CyberSitter o NetNanny, o pueden tener muchos valores, como en el caso de los sistemas de clasificación basados en PICS (ver la pregunta 3).

 

Filtrado: Con cada solicitud de información, el software de filtrado examina el recurso que el usuario ha solicitado. Si el recurso está en la lista de los "no permitidos" o no tiene la clasificación PICS adecuada, el software de filtrado dice al usuario que el acceso le ha sido denegado y el navegador no muestra el contenido del web.

 

Los primeros filtros de contenido eran sistemas autónomos que consistían en mecanismos que determinaban los sitios que debían bloquearse, junto con el software que realizaba el filtrado, todo ello suministrado por un único vendedor.

 

El otro tipo de filtro de contenido está basado en protocolos. Estos sistemas consisten de software que utiliza estándares establecidos para comunicar la información de clasificación a través de Internet. A diferencia de los sistemas autónomos, los sistemas basados en protocolos no contienen ninguna información sobre qué sitios (o clases de sitios) deben ser bloqueados. Los sistemas basados en protocolos sólo saben cómo encontrar esta información en Internet y cómo interpretarla.

 

1.2. ¿Por qué quieren muchas personas filtrar el contenido?


 

Internet contiene una gran variedad de materiales, algunos de los cuales pueden ser ofensivos o, incluso, ilegales en muchos países. A diferencia de los medios de comunicación tradicionales, Internet no tiene forma evidente de segregar el material en base a su contenido. Aunque las revistas pornográficas pueden ser colocadas detrás del mostrador de una tienda y los strip-teases confinarse a determinadas zonas de la ciudad, Internet proporciona todo a través del mismo medio.

 

Los sistemas de filtrado y clasificación son concebidos como herramientas que proporcionan en el ciberespacio el equivalente de las separaciones físicas que se utilizan en el mundo físico para limitar el acceso a los materiales para adultos. Al clasificar un sitio como inaceptable y rehusar su exhibición en el monitor del usuario, los sistemas de filtrado y clasificación pueden utilizarse para evitar que los menores vean materiales que sus padres consideran inaceptables. Al impedir el acceso, el software actúa como una versión automatizada del dependiente de la tienda que se niega a vender revistas para adultos a los menores.

 

Los filtros también se utilizan por los empresarios para impedir que sus empleados accedan a recursos de Internet que no están relacionados con la empresa o bien son considerados inadecuados.

 

1.3. ¿Pueden desactivarse los programas de filtrado?


 

Se supone que los padres u otros usuarios responsables que instalan el programa de filtrado controlarán las contraseñas que permiten desactivar el programa. Esto significa que los padres pueden habilitar el filtro para sus hijos y desactivarlo para sí mismos. Al igual que en otras áreas de la seguridad informática, estos programas son vulnerables a los ataques realizados por usuarios inteligentes que pueden averiguar la contraseña o desactivar el programa por otros medios.

 

1.4. No quiero filtrar el contenido, pero quiero saber qué están viendo mis hijos. ¿Es eso posible?


 

Algunos productos incluyen una característica que captura la lista de todos los sitios de Internet que se han visitado desde el ordenador. Esto permite que un padre vea los sitios que su hijo ha visitado, aunque a toro pasado. Otros programas similares permiten a los empresarios supervisar la utilización que hacen de Internet sus empleados. Los usuarios de estos sistemas no saben que su conexión a Internet está siendo vigilada, a menos que se lo digan.

 

Si se utilizan en casa o en el lugar de trabajo, estas herramientas plantean serios problemas de privacidad.

 

1.5. ¿Cuál es el ámbito de acción del filtrado de contenido en Internet? ¿Cubren los filtros la WWW? ¿Y los newsgroups? ¿El IRC? ¿El correo electrónico?


 

Aunque algunos sistemas autónomos afirman filtrar otras partes de Internet, la mayoría de los filtros de contenido están centrados en la World Wide Web. Dada la variedad de protocolos existentes, es probable que las herramientas de filtrado funcionen bien con algunos de ellos, pero mal con otros. Por ejemplo, un software de filtrado puede bloquear el acceso a newsgroups cuyos nombres incluyan "alt.sex". Sin embargo, la tecnología actual no puede identificar la presencia de fotografías explícitas en un fichero que está siendo transferido mediante FTP. Actualmente, los sistemas basados en PICS sólo filtran sitios web.

 

 

2. Sistemas autónomos


 

2.1. ¿Qué es un sistema autónomo?


 

Un sistema de filtrado autónomo es un conjunto de filtrado completo suministrado por un vendedor. Estos filtros bloquean sitios en base a criterios proporcionados por el vendedor del software, "encerrando", así, a los usuarios. Si a un cliente no le gusta la selección de sitios bloqueados que ha hecho el vendedor, tendrá que descartar el producto y utilizar un programa diferente.

 

2.2. ¿Quién decide qué se bloquea y qué no se bloquea?


 

Aquí radica la mayor diferencia práctica entre los sistemas autónomos y los basados en protocolos. Los primeros limitan las decisiones de los usuarios a las realizadas por el vendedor del software, aunque algunos permiten que los padres o instaladores añadan y eliminen sitios. Los sistemas basados en protocolos dan a los usuarios elegir entre sistemas de clasificación alternativos, que los creadores de contenido y terceras partes pueden utilizar para desarrollar clasificaciones del contenido. Consulte la sección 3.2 para más detalles.

 

2.3. ¿Cómo determinan los programas autónomos qué debe ser bloqueado?


 

Las herramientas de filtrado actualmente disponibles utilizan alguna combinación de dos métodos para evaluar el contenido: listas de sitios inaceptables (o aceptables) y búsquedas de palabras clave.

 

El bloqueo mediante listas funciona enumerando explícitamente sitios que deberían ser bloqueados o permitidos. Estas listas son suministradas, generalmente, por los vendedores de los filtros, que buscan sitios que cumplan los criterios para ser clasificados como "inaceptable" o "adecuado para la familia".

 

Hay grandes diferencias entre los vendedores de software de filtrado respecto a la cantidad de información y control que ponen a disposición de los usuarios. La mayoría de los vendedores no permiten a los usuarios ver su lista de sitios bloqueados, pues la consideran una especie de secreto comercial. Sin embargo, algunos vendedores proporcionan descripciones detalladas de los criterios utilizados para determinar qué sitios deben ser bloqueados. Algunos vendedores permiten a los usuarios añadir sitios a la lista, bien directamente en su mismo programa o bien enviando los sitios al vendedor para que éste los analice.

 

Entre las herramientas autónomas de filtrado también hay grandes diferencias en cuanto a la capacidad de configuración por parte del usuario. Algunos paquetes de software permiten a los usuarios que realicen su propia selección en la lista de categorías que quisieran bloquear. Por ejemplo, un padre puede querer bloquear materiales sexuales pero no discusiones en torno a la homosexualidad como forma de vida. Otros permiten a los usuarios elegir entre un abanico de opciones sobre un área temática determinada. Por ejemplo, en lugar de bloquear simplemente todos los desnudos, estas herramientas permiten que los usuarios elijan ver desnudos parciales y bloquear los desnudos integrales.

 

El bloqueo mediante claves de búsqueda utiliza búsquedas de texto para categorizar los sitios. Si un sitio contiene palabras o frases inaceptables, lo bloquean.

 

2.4. ¿Qué defectos tienen los filtros basados en listas?


 

Hay varios problemas relacionados con los filtros basados en listas de sitios a bloquear.

 

En primer lugar, estas listas son incompletas. Debido a la naturaleza descentralizada de Internet, es prácticamente imposible buscar material "inaceptable" en todos los sitios de la red. Ni siquiera con un equipo de buscadores pagados, los vendedores de este software pueden aspirar a identificar todos los sitios que cumplen sus criterios de búsqueda. Además, puesto que aparecen constantemente nuevos sitios, tampoco una actualización regular del vendedor del software bloqueará todos los sitios web para adultos. Cada lista actualizada quedará obsoleta tan pronto como aparezca, ya que todos los sitios creados después de la actualización no estarán, lógicamente, en la lista y, por tanto, no serán bloqueados. La volatilidad de los sitios individuales es otra causa potencial de problemas. Materiales para adultos pueden ser añadidos a -o eliminados de- un sitio poco después de que el mismo haya sido añadido a -o eliminado de- la lista de sitios bloqueados.

 

Las listas de sitios bloqueados también plantean problemas por el hecho de ocultar información a la vista de los usuarios, que tal vez no puedan acceder a información que describa los criterios utilizados para bloquear sitios web. Aunque algunos vendedores proporcionan descripciones de sus criterios de bloqueo, esta información es a menudo vaga o incompleta. Varios vendedores han extendido el bloqueo más allá de los materiales meramente "inaceptables". En algunos casos, también son bloqueados sitios políticos y sitios que critican el software de bloqueo.

 

Esta falta de transparencia se combina con prácticas utilizadas para proteger estas listas de sitios bloqueados. Frecuentemente, los vendedores consideran estas listas sujetas a las protecciones de la propiedad intelectual y utilizan sistemas de encriptación matemática, lo que supone que las listas resultan incomprensibles para los usuarios finales. En consecuencia, los usuarios no pueden examinar qué sitios están bloqueados y por qué. Esta conducta arbitraria degrada el papel del usuario como agente activo y consciente de su propia utilización de Internet.

 

2.5. ¿Qué defectos tienen los filtros basados en búsquedas de palabras claves?


 

La búsqueda de palabras clave es un método tosco e inflexible que, probablemente, bloquee sitios que no deberían serlo, mientras permite el acceso a sitios "para adultos". Estos problemas derivan de dos defectos de este método.

 

Las búsquedas de palabras clave no pueden utilizar información contextual. Aunque las búsquedas pueden identificar la presencia de determinadas palabras en un texto, no pueden evaluar el contexto en que dichas palabras se encuentran. Por ejemplo, una búsqueda podría encontrar la palabra "pecho" en una página web, pero no puede determinar si esa palabra se utiliza en una receta culinaria de gallina, un relato erótico o vaya usted a saber dónde. En un caso que resultó notorio, las búsquedas de America Online bloquearon el sitio de un grupo de apoyo al cáncer de pecho.

 

Las búsquedas de palabras clave no pueden interpretar gráficos. No es actualmente posible "buscar" el contenido de una imagen. Por lo tanto, una página que contenga imágenes crudamente sexuales sólo será bloqueada si el texto que aparece en la página contiene una o más palabras de la lista de palabras bloqueadas.

 

 

3. La Plataforma para la Selección del Contenido en Internet (PICS)


 

3.1. ¿Qué es PICS?


 

La Plataforma para la Selección del Contenido en Internet (PICS) fue desarrollada por el Consorcio W3 -organismo encargado de establecer los estándares en la World Wide Web- como un protocolo para el intercambio de información sobre clasificación. Paul Resnick -profesor de la Universidad de Michigan y creador de PICS- describió así PICS en un artículo publicado en Scientific American (marzo 1997):

 

 

El Consorcio World Wide Web del Instituto Tecnológico de Massachusetts ha desarrollado un conjunto de estándares técnicos llamado PICS (Plataforma para la Selección del Contenido en Internet) para que la gente pueda distribuir electrónicamente descripciones de trabajos digitales de forma sencilla e interpretable por los ordenadores. Estos pueden procesar estas etiquetas en segundo plano, protegiendo automáticamente a los usuarios del material indeseable o dirigiendo su atención hacia sitios de particular interés. El estímulo original para desarrollar PICS fue permitir a los padres y maestros filtrar materiales que consideraran inadecuados para los niños cuando utilizan la Red. En lugar de censurar lo que se distribuye, como han intentado hacer la Ley de Decencia de las Comunicaciones y otras iniciativas legislativas, PICS posibilita que los usuarios controlen lo que reciben.

 

Hay dos elementos característicos en la utilización práctica de PICS: los sistemas de clasificación y el software que utilizan éstos para filtrar el contenido.

 

3.2. ¿En qué se diferencia el filtrado de PICS del de los sistemas autónomos?


 

Los productos de filtrado autónomos incluyen, generalmente, listas de sitios filtrados y explicitan los criterios utilizados. Los compradores de estos productos quedan sujetos a las decisiones de filtrado tomadas por el vendedor del software.

 

El software basado en PICS utiliza un método alternativo basado en la distribución de información compartida de clasificaciones. En lugar de utilizar listas de bloqueo o búsquedas de palabras clave, los programas basados en PICS utilizan "sistemas de clasificación" estandarizados para determinar qué sitios deben ser bloqueados. Estos sistemas de clasificación, distribuidos por los vendedores de software o por sitios de Internet, se utilizan para describir el contenido de sitios de Internet (ver el punto 3.7 para saber cómo funciona PICS en la práctica). Los usuarios de software basado en PICS tienen, normalmente, la capacidad de elegir qué sistema de clasificación quieren utilizar.

 

Como estándar abierto, PICS puede ser utilizado para un amplio abanico de aplicaciones. Además de proporcionar un medio para bloquear contenidos considerados inadecuados para los niños, PICS puede también utilizarse para describir contenidos en términos educativos, para realizar potenciales violaciones de la privacidad o para cualesquiera otros criterios que impliquen clasificación de sitios de Internet.

 

En cierto sentido, los programas que utilizan PICS son mucho más flexibles que el software de filtrado autónomo. Los usuarios de software PICS no están sujetos a los juicios de valor del vendedor del software y las descripciones de los criterios utilizados por los sistemas de clasificación están públicamente disponibles. Sin embargo, los usuarios están actualmente limitados a elegir entre un pequeño número de sistemas de clasificación, cada uno de los cuales tiene sus propias inclinaciones y puntos de vista. Los usuarios que están en desacuerdo con los sistemas de clasificación populares no pueden utilizar PICS de forma que responda a sus necesidades y puntos de vista.

 

3.3. ¿Qué es un sistema de clasificación?


 

Un sistema de clasificación es una serie de categorías y gradaciones dentro de aquellas, las cuales pueden utilizarse para clasificar contenidos. Las categorías que se utilizan son elegidas por el desarrollador del sistema de clasificación y pueden incluir temas tales como "contenido sexual", "raza" o "privacidad". Cada una de estas categorías puede describirse de acuerdo con diferentes niveles de contenidos, tales como "Romance; no sexo", "Actividad sexual explícita", etc. Actualmente, los sistemas de clasificación más utilizados son RSACi, SafeSurf y NetShepherd.

 

Una clasificación es una descripción de un contenido particular de Internet que utiliza los términos y el vocabulario de un sistema de clasificación.

 

3.4. ¿Cómo se desarrolla un sistema de clasificación?


 

Los desarrolladores de PICS y el Consorcio W3 crearon PICS como un estándar abierto, de forma que cualquiera pueda crear un sistema de clasificación. Los individuos y los grupos pueden desarrollar sistemas de clasificación definiendo categorías y describiendo clasificaciones dentro de esas categorías. Una vez desarrollado, un sistema de clasificación puede ser divulgado a usuarios y creadores de contenido.

 

3.5. ¿Quién clasifica los sitios?


 

El estándar PICS describe dos métodos para clasificar sitios.

 

Autoclasificación: Los creadores de sitios web pueden evaluar sus propios contenidos y poner directamente en sus páginas web la información de la clasificación PICS. Actualmente, esta evaluación puede realizarse a través de páginas web proporcionadas por los desarrolladores de los principales servicios de clasificación.

 

Clasificación de terceras partes: Terceras partes interesadas pueden utilizar sistemas de clasificación PICS para evaluar sitios web y publicar sus propias clasificaciones de esos sitios. Grupos educativos, grupos religiosos o individuos pueden clasificar sitios y publicar sus clasificaciones en Internet para que otros usuarios las utilicen.

 

3.6. ¿Qué sistemas de clasificación basados en PICS puedo utilizar?


 

Desde un punto de vista técnico, usted puede utilizar cualquier sistema de clasificación basado en PICS. Sin embargo, sus opciones prácticas son algo más limitadas. Aunque usted puede configurar su navegador para utilizar las "Clasificaciones Internet de Pedro", es improbable que muchos sitios tengan las clasificaciones del sistema de Pedro, por lo que éstas serán de poca utilidad.

 

Su navegador puede influir en la elección de un servicio de clasificación. Si usted está usando Internet Explorer de Microsoft, sólo tiene incorporada en la distribución del programa una opción (RSACi). Para utilizar otros servicios de clasificación, los usuarios de Internet Explorer deben transferir a su ordenador los ficheros pertinentes e instalarlos.

 

En la actualidad (septiembre de 1997), hay tres servicios PICS que se están utilizando y promoviendo ampliamente:

 

RSACi: Patrocinado por el Consejo Asesor de Software Recreativo (conocido por las clasificaciones de videojuegos), RSACi es, probablemente, el sistema de clasificación PICS más utilizado hoy. Las categorías de clasificación de RSACi incluyen violencia, desnudos, sexo y lenguaje, con cinco clasificaciones dentro de cada categoría. Hasta septiembre de 1997, RSACi afirma tener clasificados más de 43.000 sitios.

 

SafeSurf: Desarrollado por la corporación SafeSurf, las categorías de este sistema incluyen "Rango de Edades", "Blasfemias", "Temas Heterosexuales", "Temas Homosexuales", "Desnudos", "Violencia", "Sexo, Violencia y Blasfemias", "Intolerancia", "Glorificación del uso de drogas", "Otros temas para adultos" y "Juego", con nueve subdivisiones dentro de cada categoría.

 

SafeSurf y RSACi dependen de la autoclasificación de los sitios Internet por parte de los propios creadores de páginas web.

 

NetShepherd: Con sede en Calgary, NetShepherd clasifica sitios en base a niveles de calidad (de 1 a 5 estrellas). A diferencia de SafeSurf y RSACi, NetShepherd encarga la clasificación de los webs a terceras partes. Afirman tener clasificados más de 300.000 sitios. NetShepherd ha anunciado, también, la colaboración con firmas como AltaVista y Catholic Telecom, Inc.

 

3.7. ¿Cómo utilizo PICS?


 

Para usar PICS, los usuarios deben empezar por configurar sus navegadores o el software PICS para utilizar un sistema de clasificación (como RSACi o SafeSurf). Después de haber elegido un sistema de clasificación, los usuarios deben examinar cada una de las categorías, con el fin de elegir un nivel de información preferido para esa categoría. En términos prácticos, esto significa que debe decidir lo que se va a bloquear. Por ejemplo, las opciones para desnudos incluyen "nada", "atuendo revelador", "desnudo parcial", "desnudo frontal" y "explícito".

 

Después de hacer estas elecciones, el navegador las utilizará para filtrar sitios. Cuando se solicita un sitio de Internet, el navegador compara la clasificación del mismo con la selección del usuario. Si el sitio tiene clasificaciones incluidas en el sistema elegido y esas clasificaciones entran dentro de los parámetros seleccionados por el usuario, se muestra de forma normal. Si las clasificaciones apropiadas caen fuera de esos parámetros (quizás el sitio tiene "desnudos frontales" y el usuario sólo ha decidido aceptar "desnudos parciales"), se deniega el acceso al sitio y el usuario ve un mensaje que indica que el sitio está bloqueado.

 

Puesto que la mayoría de los webs no están clasificados actualmente, casi todos los programas proporcionan al usuario la opción de bloquear los sitios que no contienen clasificaciones PICS.

 

Con el fin de evitar que los niños traviesos modifiquen las clasificaciones o desactiven PICS, la mayoría de los navegadores pueden configurarse para que exijan una contraseña antes de desactivar PICS.

 

3.8. ¿Debo clasificar mi sitio?


 

La respuesta a esta pregunta dependerá de quién la pregunte.

 

RSACi, SafeSurf y otros programas de clasificación querrán, obviamente, que todo el mundo clasifique sus sitios, pero los libertarios civiles y opositores a las clasificaciones argumentarán en contra de éstas.

 

Los creadores de sitios orientados al uso familiar o aquellos que pretenden llegar a audiencias preocupadas por el contenido de Internet considerarán la oportunidad de clasificar sus sitios. Asimismo, los proveedores de materiales para adultos podrían clasificar sus sitios con el fin de ser "buenos ciudadanos".

 

3.9. ¿Qué debe tomar en cuenta un emisor antes de clasificarse?


 

Los creadores de sitios web deben decidir qué sistemas de clasificar utilizar, si es que van a utilizar alguno. Puesto que cada sistema de clasificación requiere un proceso de evaluación independiente y diferentes modificaciones de las páginas web, quizás no sea práctico que los creadores de webs utilicen todas las clasificaciones disponibles.

 

Al evaluar los sistemas de clasificación, los emisores pueden querer examinar las categorías y subcategorías utilizadas por cada sistema. Los diferentes sistemas harán diferentes clasificaciones y algunas de éstas pueden representar incorrectamente el contenido de los webs. Por ejemplo, los sitios que tratan del sexo seguro no querrán ser clasificados en la misma categoría que los sitios pornográficos.

 

Los creadores de webs también pueden tomar en cuenta la popularidad de los servicios de clasificación. Actualmente (hasta septiembre de 1997), sólo hay unos pocos servicios de clasificación importantes. Los emisores son libres de utilizar otras clasificaciones, pero puede que no sean útiles para los usuarios de Internet que dependen de los sistemas populares. Esto presenta un dilema a algunos emisores que pueden aceptar las clasificaciones de los sistemas populares, aunque representen incorrectamente sus contenidos, o rehusar clasificar sus sitios, sabiendo que esto puede suponer que sus sitios sean inaccesibles para algunos usuarios.

 

Algunas versiones del Internet Explorer de Microsoft son un ejemplo extremo de este problema. Aunque IE permite al usuario utilizar cualquier sistema de clasificación, sólo RSACi está incorporado en la lista de selección. Puesto que Internet Explorer es el navegador más utilizado de los que incorporan PICS (hasta el otoño de 1997, Navigator de Netscape no soporta PICS), es probable que muchos usuarios de PICS utilicen RSACi. Esta imposición del mercado puede determinar que muchos emisores interesados en llegar a una amplia audiencia elijan aquel sistema de clasificación.

 

Por último, ciertas preocupaciones filosóficas pueden determinar que algunas personas decidan no clasificar sus sitios. Los creadores de webs que no estén cómodos con el contenido general de los sistemas de clasificación disponibles, o que se oponen al concepto de clasificación, pueden decidir no clasificar sus propios sitios.

 

Los problemas de MSNBC con las clasificaciones ofrecen una irónica ilustración de este caso. Disgustado con las clasificaciones de RSACi, la administración de MSNBC eliminó toda la información de clasificación de su sitio. MSNBC y otras agencias de noticias discutieron la posibilidad de crear un nuevo sistema de clasificación específico para los despachos de noticias.

 

Aunque esta propuesta fue eventualmente rechazada, ilustra algunos de los problemas existentes con las clasificaciones de contenidos. Emisores con gran financiación detrás como MSNBC podrían, efectivamente, crear sistemas de clasificación que cumplieran sus necesidades, pero los emisores menos poderosos que quieran clasificar sus sitios pueden verse obligados a aceptar clasificaciones insatisfactorias.

 

3.10. ¿Qué problemas plantean las clasificaciones de terceras partes?


 

Puesto que las clasificaciones de terceras partes no están convalidadas por medios técnicos, pueden ser fácilmente mal utilizadas. Al igual que un software de filtrado autónomo puede bloquear sitios por razones políticas o comerciales (aunque no contengan contenidos para adultos), los clasificadores de terceras partes pueden aplicar etiquetas imprecisas a sitios web con el fin de asegurarse que serán bloqueados por programas que usen PICS.

 

Para empeorar las cosas, la clasificación por terceras partes no requiere el consentimiento, ni siquiera la notificación, del creador del contenido clasificado. Puesto que las clasificaciones de terceras partes se distribuyen mediante "oficinas de etiquetado" de terceras partes, un creador de un sitio web puede ignorar que sus páginas han sido clasificadas o qué clasificaciones le han sido asignadas.

 

Las clasificaciones de terceras partes presentan, también, importantes problemas técnicos que pueden desincentivar su desarrollo. A diferencia del autoetiquetado, las clasificaciones PICS de terceras partes no residen en las páginas web del emisor; tienen que ser distribuidas a los usuarios a través de alguno de estos dos métodos:

 

 

 

3.11. ¿Qué sucede con los sitios que no están clasificados? ¿Qué sucede si alguien clasifica erróneamente un sitio?


 

Las clasificaciones PICS pueden ser realmente útiles para los padres sólo si está clasificado de forma precisa un porcentaje importante de los webs de Internet. En la actualidad, éste no es el caso. Los 40.000 sitios que han sido clasificados con RSACi o los 300.000 clasificados por NetShepherd representan un pequeña parte del total de sitios web existentes.

 

Algunos programas, como el Internet Explorer de Microsoft, proporcionan a los usuarios la opción de bloquear cualquier sitio que no tenga una clasificación. Esta opción puede ser adecuada para algunos, pero restringe severamente las opciones disponibles. Al bloquear la mayor parte de la Web (incluyendo, posiblemente, algunos sitios diseñados por los usuarios más jóvenes), este método restringe severamente la visión del mundo que pueden tener los niños.

 

La precisión de las clasificaciones PICS es, obviamente, un serio problema. Por ejemplo, proveedores poco escrupulosos de materiales para adultos pueden intentar usar una clasificación imprecisa para burlar los filtros PICS. En los términos de uso de RSACi, RSAC se reserva el derecho a auditar sitios con el fin de garantizar la precisión de las clasificaciones. SafeSurf va más allá. La propuesta Ley de Edición Cooperativa en Línea impone multas a los sitios que estén etiquetados de forma imprecisa o rehusen clasificarse. En junio de 1997, la senadora Patty Murray propuso la Ley de una Internet Segura para los Niños, que pide penas similares. Aunque estas propuestas legislativas podrían ser efectivas para promover el uso de clasificaciones, plantean serios problemas en términos de los derechos de la Primera Enmienda y una legislación excesivamente agresiva. La pregunta 4.1. analiza estas posibilidades en más profundidad. En la actualidad, no existen controles de calidad de las clasificaciones de las terceras partes.

 

Estas cuestiones de la calidad y la responsabilidad serían aún más complicadas si existieran más sistemas de clasificación. Si hubiera docenas de sistemas PICS entre los que elegir, los emisores no sabrían cuál escoger y los usuarios no sabrían en cuál confiar.

 

3.12. ¿Qué sucede si no me gustan los sistemas de clasificación disponibles? ¿Pueden desarrollar los individuos y organizaciones nuevos sistemas de clasificación?


 

Actualmente, los individuos y organizaciones que no están satisfechos con los sistemas de clasificación existentes tienen dos opciones.

 

La primera -y actualmente la única alternativa viable- es evitar el uso de PICS para autoclasificarse y/o desactivarlo en el navegador de Internet.

 

La segunda consistiría en desarrollar un nuevo vocabulario de clasificación alternativo al de RSACi, SafeSurf y demás sistemas de clasificación actualmente disponibles. Esto requeriría los siguientes pasos:

 

El primero sería la generación de un sistema de clasificación, incluyendo sus categorías y subcategorías. Esto supondría un análisis de los valores que se representarían en el sistema de clasificación y de la forma en que deberían expresarse.

 

Una vez que el sistema haya sido desarrollado, hay que clasificar los sitios. Esto puede hacerse de dos formas:

 

 

 

 

Después de haber creado las clasificaciones de los webs, el nuevo sistema de clasificación debería ser publicitado. Y, como ya se ha explicado anteriormente, esto puede ser difícil y costoso.

 

Dados los importantes recursos que se necesitan para desplegar un nuevo sistema de clasificaciones, es improbable que vaya a haber un gran número de alternativas PICS disponibles en el futuro inmediato. Los desarrolladores de PICS están intentando cambiar esto mediante el proyecto PICS Incubator, que ofrece recursos a organizaciones interesadas en desarrollar nuevos sistemas de clasificación.

 

3.13. ¿Qué defectos tiene PICS y las clasificaciones de Internet en general?


 

En teoría, hay muchas aplicaciones útiles de la información de clasificación.

 

Análisis de libros y clasificación de películas son sólo dos ejemplos de algunas de las muchas formas en que podemos emplear los filtros de información. Utilizadas en combinación con otras fuentes de información -como la publicidad y el boca a boca-, estas clasificaciones proporcionan una base para tomar decisiones informadas respecto a la información.

 

Desafortunadamente, en la actualidad PICS no proporciona a los usuarios información contextual ni el abanico de opciones necesario para poder tomar una decisión informada. Cuando decidimos qué película vamos a ver, hemos podido consultar antes las críticas, los anuncios y los trailers, todo lo cual nos da una información sobre el contenido de la misma. Estos detalles nos ayudan a decidir de forma inteligente en base a nuestros valores y preferencias. Pero los sistemas basados en PICS no proporcionan ninguna información contextual; a los usuarios sólo se les dice que el acceso a un sitio es denegado porque su clasificación excede un cierto valor de la escala de clasificación.

 

Además, el rango limitado de sistemas de clasificación PICS actualmente existentes no proporciona a los usuarios una posibilidad significativa de elección entre alternativas. Los padres que no están conformes con uno de los actuales sistemas de clasificación puede que no encuentren ninguna alternativa viable.

 

Continuando con nuestras analogías con otros medios, consideremos las críticas de libros en un mundo en el que sólo existieran dos o tres publicaciones que incluyeran reseñas de libros. Esto podría funcionar muy bien para las personas que estuvieran de acuerdo con las opiniones de estos críticos (¡y, por supuesto, para los críticos mismos!), pero funcionaría bastante mal para quienes tuvieran puntos de vista diferentes.

 

Algunos podrían argumentar que el "éxito" de un conjunto de clasificaciones de películas ofrece un modelo para PICS. Sin embargo, las clasificaciones se aplican, generalmente, sólo a películas realizadas para el entretenimiento por parte de los principales productores. Los documentales y los filmes educativos generalmente no se clasifican, pero sitios webs equivalentes sí se clasificarán con PICS.

 

Las clasificaciones de películas también proporcionan una lección que debería ser tenida en cuenta para Internet. Las películas no clasificadas o con determinadas clasificaciones tienen, a menudo, serias dificultades para llegar a la audiencia, ya que no pueden ser exhibidas en determinados cines o distribuidas por las grandes cadenas de vídeo. Esto ha originado una autocensura: los directores componen escenas problemáticas de forma que superen las clasificaciones NC-17. Esto puede ser adecuado para espectáculos comerciales, pero sería peligroso si se aplicara a información sobre sexo seguro en Internet.

 

Los sistemas de clasificación también fallan cuando se enfrentan con la naturaleza global de Internet. Las presiones legales o prácticas para que los emisores clasifiquen sus propios sitios pueden tener escasos efectos, pues estas empresas o individuos tienen la opción de trasladar sus materiales a otro país. Por otra parte, los sistemas de clasificación existentes tienen un escaso valor para aquellos países que no comparten los valores occidentales.

 

Los problemas planteados por el material internacional no clasificado o por los valores culturales diferentes podrían abordarse mediante la censura directa. Por ejemplo, los gobiernos podrían utilizar las clasificaciones PICS o un software de filtrado propio para poner en marcha "cortafuegos nacionales" que filtraran el material inaceptable. Alternativamente, las clasificaciones podrían utilizarse para "castigar" los contenidos inadecuados. Si los motores de búsqueda eligieran bloquear sitios con determinadas clasificaciones (o los que carezcan de ellas), o si los navegadores las bloquearan por defecto, estos sitios serían prácticamente invisibles.

 

Es posible que pueda haber un amplio rango de sistemas de clasificación PICS que proporcionaran a las familias una oportunidad real de elegir las clasificaciones que correspondan a sus valores. La utilidad de PICS también podría incrementarse mediante el uso de nuevas tecnologías como los "metadatos" (datos sobre datos, utilizada para describir el contenido de páginas web y otros recursos de información), las cuales podría utilizarse para proporcionar información contextual junto con las clasificaciones PICS. Sin embargo, estas herramientas pueden tardar mucho tiempo en estar disponibles para el público en general, si es que lo llegan a estar alguna vez.

 

Algunas personas confunden las clasificaciones con la organización temática que se utiliza en bibliotecas y sitios web como Yahoo. Aunque ningún sistema de organización de la información es neutral, los esquemas temáticos pretenden describir de qué trata un recurso. La clasificación raramente nos ayuda a encontrar recursos de información por temas y es bastante habitual que se centren en unos pocos criterios útiles para recuperar la información.

 

 

4. Alternativas


 

4.1. ¿Hay alternativas?


 

La respuesta a esta pregunta depende mucho de la perspectiva de quien la haga.

 

Si esta pregunta equivale a: "¿Hay alguna solución que dé a los niños la capacidad de usar Internet sin que vean jamás material para adultos?", la respuesta es: probablemente sí. Esto exigiría una combinación de tres factores:

 

 

  1. Una legislación que exija clasificaciones "precisas" y especifique sanciones para aquellos que no la cumplan.

     

  2. Medidas técnicas que impidan la transmisión de material sin etiquetar o cualquier material procedente de otros países (que no estarán sujetos a las leyes norteamericanas).

     

  3. Uso obligatorio de software de filtrado que utilice las configuraciones obligatorias.

 

Los obvios problemas legales, políticos y prácticos que plantea este escenario lo condenarían, con toda seguridad, al fracaso. Aunque varios grupos han sugerido la necesidad de estándares obligatorios, es bastante probable que fueran inconstitucionales y violaran la decisión de la Corte Suprema en el caso Reno vs. ACLU, que derogó la Ley de Decencia de las Comunicaciones. En la práctica, unas leyes que exigieran el uso de software de filtrado serían virtualmente inaplicables. Por último, si los intentos de "sanear" Internet consiguieran superar los obstáculos legales, eso tendría un efecto nefasto sobre la libre expresión en Internet.

 

Si la pregunta se interpreta como: "¿Hay alguna solución que proporcione alguna protección contra el material para adultos o inaceptable sin que restrinja la libre expresión?", la respuesta es mucho menos clara. Los sistemas autónomos no cumplen claramente esos criterios, pues dejan al usuario en una situación dependiente de los caprichos del vendedor del software, el cual puede bloquear sitios por razones completamente arbitrarias. En teoría, PICS podría responder a aquellos criterios, pero la carencia de opciones significativas entre sistemas de clasificación sustancialmente diferentes deja a los padres y a los emisores en la cuasi-obligación de utilizar clasificaciones con las que pueden no estar de acuerdo o bien no consiguen describir de forma adecuada sus necesidades o los materiales.

 

Describir un contenido como "apto sólo para adultos" o "adecuado para niños" es un proceso inherentemente complejo y cargado de valores. En los Estados Unidos, muchas personas han intentado impedir que las escuelas y bibliotecas utilicen publicaciones como Huckleberry Finn y descripciones de modos de vida gay o lesbianos. Los feroces debates generados en torno a estos intentos muestran que no puede llegarse a un consenso. El uso creciente de software de filtrado sería, probablemente, el comienzo, y no el final, de discusiones en torno a qué tipo de materiales de Internet son "adecuados" para los niños y quién debe tomar la decisión.

 

4.2. Comprendo que existen muchos problemas con los filtros y las clasificaciones. ¿Qué puedo hacer para proteger a mis hijos?


 

Lo primero que los padres deberían hacer es considerar la extensión del problema. Aunque algunos informes pueden dejar a los padres con la impresión de que Internet no es más que pornografía, esto está muy lejos de ser cierto. De hecho, es improbable que los niños tropiecen accidentalmente con materiales pornográficos. Además, muchos sitios para adultos tienen advertencias explícitas o exigen el pago mediante tarjeta de crédito, todo lo cual aminora más aún las probabilidades de que los niños encuentren "accidentalmente" pornografía.

 

En segundo lugar, los padres deberían jugar un rol activo e interesarse por la utilización que hacen sus hijos de Internet. Para algunos niños, esto podría significar restringirles el uso de Internet a sesiones directamente supervisadas. Otros niños podrían ser capaces de actuar con reglas y directrices claramente definidas. Los padres deberían, también, educar a sus hijos en el uso adecuado de Internet. De la misma forma que los padres enseñan a sus hijos a no hablar con extraños en la calle, también deberían disuadirles de visitar ciertos sitios web, divulgar información personal o familiar, o participar en canales chat inadecuados.

 

Algunos padres podrían considerar la utilización de software de filtrado, a pesar de todos sus inconvenientes. Los padres que adopten esta vía deberían estudiar detenidamente sus opciones, con el fin de entender en qué consisten y cuáles son sus implicaciones.

 

Por lo que se refiere a los sistemas de filtrado autónomos, esto significa investigar los criterios utilizados para elaborar las listas de bloqueo y/o los informes que describen ese software. Si es posible, los padres podrían intentar encontrar sistemas autónomos que permitan a los usuarios ver y editar las listas de sitios bloqueados.

 

Los padres que decidan utilizar sistemas PICS deberían investigar las categorías empleadas por los diferentes sistemas de clasificación, con el fin de encontrar el que reúna sus necesidades. Puede encontrarse información sobre los sistemas basados en PICS en las páginas base de los respectivos sistemas de clasificación.

 

En general, el uso de un producto de filtrado supone la aceptación implícita de los criterios utilizados para generar las clasificaciones en cuestión. Antes de tomar esta decisión, los padres deberían asegurarse de que los valores que se encuentran detrás de tales clasificaciones son compatibles con los suyos.

 

Por último, los padres deberían darse cuenta de que Internet es simplemente un reflejo de la sociedad en general. Buena parte del contenido "para adultos" que hay en Internet puede encontrarse en la televisión por cable, en los vídeo-clubs o en los cines. En la medida en que los otros medios no protegen a los niños contra la violencia o el contenido sexual, las restricciones en Internet serán siempre incompletas.

 

4.3. ¿Qué papel pueden jugar los proveedores de conexión a Internet?


 

Algunos han pedido que los proveedores de conexión a Internet jueguen un papel mayor ayudando a los padres a filtrar la Red. Hay dos formas de que los proveedores puedan hacerlo:

 

Filtrado basado en el proveedor: Los proveedores de acceso a Internet podrían realizar ellos mismos el filtrado, impidiendo que sus clientes accedan a materiales inaceptables, aunque estos clientes no tengan sus propios programas de filtrado. Esto requiere el uso de un servidor proxy, que funcionaría como un intermediario entre los clientes del proveedor y los sitios webs remotos. Cuando un cliente de un proveedor con filtrado quiera ver un sitio web, su solicitud irá al servidor proxy operado por el proveedor. Este servidor proxy comprobará si el sitio debe ser bloqueado. Si el sitio es admisible, el servidor proxy recuperará la página web y la entregará al cliente.

 

Este método es técnicamente factible. De hecho, es utilizado por muchas corporaciones y algunos proveedores de conexión a Internet ofrecen este servicio. Sin embargo, requiere considerables recursos informáticos que pueden estar más allá de los medios asequibles para los pequeños proveedores. Pero incluso aunque el proveedor pudiera adquirir los ordenadores y el ancho de banda necesarios, este método está muy lejos de ser ideal. Para hacer el filtrado, los servidores proxy tendrían que usar sistemas autónomos o basados en PICS, por lo que estarían sujetos a las limitaciones de estas tecnologías (ver 2.4, 2.5 y 3.13). Los defectos e inconvenientes de los sistemas de filtrado existentes pueden resultar particularmente molestos para proveedores que anuncian servicios de filtrado, pues estas firmas podrían verse en situaciones comprometidas si sus filtros no bloquean de forma aceptable los materiales para adultos. Por último, los proveedores que filtren material pueden perder clientes que no deseen un acceso filtrado a Internet.

 

Proporcionar software de filtrado: Otros han sugerido que los proveedores de conexión a Internet deberían estar obligados a proporcionar a sus usuarios software de filtrado. Aunque esto podría ser del agrado de muchos padres que están pensando en conectarse a Internet (¡y por los vendedores de software!), supondría un serio coste para los proveedores más pequeños.

 

 

5. ¿Dónde puedo encontrar más información?


 

World Wide Web Consortium PICS home page

The PICS Incubator Project

RSACi

SafeSurf

NetShepherd

CyberPatrol

NetNanny

Fahrenheit 451.2: Is Cyberspace Burning? - The ACLU's Report on Filtering Software

Peacefire (grupo opuesto a las clasificaciones)

Computer Professionals for Social Responsibility

 

 

6. Créditos


 

6.1. Reconocimientos


 

Este documento se generó a partir de discusiones matenidas por el grupo de trabajo Cyber-Rights de CPSR y otras personas interesadas durante el verano de 1997. Andy Oram, Craig Johnson, Karen Coyle, Marcy Gordon, Bennett Hasleton, Jean-Michel Andre y Aki Namioka dieron un ayuda inestimable. Por favor, distribuye o copia este documento. Pueden enviarse comentarios a hhochheiser@cpsr.org.

 

6.2. ¿Qué es CPSR?


 

CPSR es una alianza de científicos informáticos y otras personas interesadas en los efectos de la tecnología informática en la sociedad de carácter no lucrativo. Trabajamos para influenciar en las decisiones sobre el desarrollo y uso de los ordenadores, porque esas decisiones tendrán consecuencias de largo alcance y reflejarán nuestros valores y prioridades básicos. Como expertos en tecnología, los miembros de CPSR ofrecen al público y a los políticos valoraciones realistas de las posibilidades, promesas y limitaciones de la tecnología informática. Como ciudadanos comprometidos, dirigimos la atención del público hacia cuestiones fundamentales referentes a las aplicaciones de la informática y sus efectos sociales.

 

Ultima modificación: 20/12/97

Aportaciones, clarificaciones y correcciones respecto al contenido de este documento serán bienvenidos: por favor, envíe un mensaje electrónico a hhochheiser@cpsr.org.

Traducción: Javier Villate