Problemas éticos en torno al uso de filtros en Internet[*]
I Congreso Internacional sobre comunicación y Realidad (18 y 20 de mayo de 2000)

David Casacuberta Sevilla

Profesor de Filosofía de la Ciencia y la Tecnología de la UAB y consultor de los Estudios de Humanidades y Filología de la UOC
dcasacuberta@campus.uoc.es

Àngel Puyol González

Profesor de Filosofía Moral y Política de la UAB y consultor de los Estudios de Humanidades y Filología de la UOC
apuyol@campus.uoc.es


Resumen: El objetivo de este artículo es explicar qué significan los filtros en Internet, cómo los podemos utilizar para limitar el acceso a las páginas web con contenidos ilegales o perjudiciales y qué cuestiones éticas están relacionadas con ellos. En el artículo, exploramos los distintos problemas éticos derivados de: a) la ausencia de eficacia de los filtros, b) el sitio público al que se pueden aplicar, c) su generalización y d) el uso obligatorio de software con filtros. Argumentamos que, desde un punto de vista ético, los software con filtros no deberían utilizarse en espacios públicos, como bibliotecas públicas, y no deberían ser obligatorios, pues entran en conflicto con libertades básicas como la libertad de expresión y de información. Por tanto, los filtros deben ser utilizados por los padres y maestros de forma discrecional, pero teniendo en cuenta, en todo momento, que su falta de eficacia y la generalización pueden hacer de ellos una herramienta peligrosa que nunca debe sustituir a la tutela de padres y educadores.
1. ¿Qué son los filtros de contenido?

Internet es famoso, sin duda, como un medio global, pero lo que lo hace interesante no es tanto que todo el mundo tenga acceso a él como receptor (al fin y al cabo, la televisión o la radio también son globales), sino que también tenga acceso global como emisor. De hecho, dejando a un lado un pequeño número de conocimientos técnicos, cualquier persona que tenga acceso a la red puede ser productora de contenidos.

Este fenómeno es nuevo: hasta hoy, poca gente disfrutaba de la posibilidad de emitir desde medios globales como la televisión, la radio o la prensa escrita. No hace falta indicar las ventajas que esto supone, pero no hay que olvidar que también plantea dificultades importantes.

No toda la información es adecuada para todo el mundo. Ciertas informaciones son ilegales, como la pornografía infantil, y otras, pese a ser legales para un adulto, pueden ser perniciosas para un menor (como la pornografía comercial o la violencia gratuita). Hasta ahora, los medios de comunicación globales estaban en manos de un reducido número de personas que se autorregulaban (ya fuese por miedo a sanciones o para garantizar la audiencia), de manera que —con alguna excepción— nadie podía contemplar material ilegal en su casa y los menores de edad no tenían acceso a imágenes o informaciones que pudiesen resultar perjudiciales para su desarrollo mental.

Como todos sabemos, Internet ha cambiado esto totalmente: si la libertad de expresión se ha hecho extensiva a todos los internautas, también es cierto que no todo el mundo la utiliza con la responsabilidad que debiera. Ahora no es excesivamente difícil encontrar material ilegal en la red y es absurdamente fácil hallar contenidos nocivos para los menores.

La solución más defendida con el fin de evitar estos problemas es el uso de programas llamados filtros de contenido. Un filtro de contenido es un software que evita el acceso a ciertos contenidos de Internet. Este proceso tiene, normalmente, dos componentes:


Clasificación: una organización determinada (un gobierno, una ONG para la protección de la infancia, una secta...) elabora una lista de sitios web y los clasifica a partir de distinciones, que pueden ir de un simple "permitido/no permitido" a elaboraciones mucho más desarrolladas, como la plataforma PICS.

Filtrado: una vez solicitado un documento de Internet, el filtro examina si este documento pertenece a un web que aparece en la lista de "no permitidos". En caso afirmativo, el acceso es denegado y el contenido ilegal o nocivo no se muestra.


Para filtrar los contenidos, podemos emplear dos formas básicas: la lista negra y la búsqueda de palabras clave. El filtrado por listas negras consiste, simplemente, en tener una enorme lista de sitios web no permitidos introducida por operadores humanos. Esta lista se va actualizando a medida que otros webs de carácter ilegal o nocivo van apareciendo por Internet.

El sistema de búsqueda de palabras clave da una pista del tipo de contenido del web. Por ejemplo, la continua presencia de términos como teenage fuck, sex etc., es una buena pista de que la página en cuestión contiene imágenes pornográficas no recomendables para un menor.

A diferencia del sistema basado en listas negras, el sistema de palabras clave no tiene ningún tipo de información sobre qué páginas web en concreto son recomendables y cuáles, no: simplemente se limita a analizar la información que está recibiendo y plasmarla en pantalla o no, dependiendo de la presencia o ausencia de las palabras clave.

Un filtro de contenido tan sólo se puede desconectar mediante una contraseña, que sólo los padres y/o educadores conocen; con lo cual, los adultos pueden acceder sin problemas a páginas violentas, pornográficas y de cualquier otro tipo, mientras protegen a los menores de esta clase de contenidos nocivos. Un adulto, si así lo prefiere y quiere evitarse sorpresas desagradables, también puede navegar con un filtro conectado.

En el momento de aplicar los filtros, éstos pueden ser tan básicos como para evitar el acceso a la pornografía a menores; pero pueden desarrollarse mucho más, en ocasiones para bien y en otras para mal: una persona que quiera que su hijo crezca en un ambiente de respeto hacia todas las razas puede decidir impedirle el acceso a páginas xenófobas; un miembro fanático de una secta puede decidir impedir a toda su familia que entre en sitios web de otras religiones...

Por otro lado, puesto que en este artículo nos centraremos en las cuestiones relacionadas con la educación, no abordaremos otro uso de los filtros: su utilización en una empresa para bloquear el acceso a espacios recreativos o no relacionados con el trabajo que alguien ha de llevar a cabo, por ejemplo.



2. Descripción de los problemas éticos más comunes

En un principio, los filtros no hacen nada más que convertirse en el equivalente electrónico de un quiosquero: si éste es una persona razonable, tendrá las revistas pornográficas y las películas violentas alejadas del público y, sin duda, si un menor pide alguna publicación que la ley considera que no es correcta para él, el quiosquero se negará a vendérsela. Asimismo, según cómo se aplican y dónde, estos programas generan problemas éticos de gran complejidad. Podemos hablar de tres tipos:


2.1. Falta de eficacia
El hecho de que una lavadora no funcione correctamente no genera ningún problema ético; como mucho, la ropa seguirá con las mismas manchas que tenía antes de lavarla. Pero en el caso de los filtros, si no funcionan correctamente generan dos tipos de problemas éticos importantes: 1) el menor continúa accediendo a páginas que moralmente no debería poder ver, y 2) se impide al menor acceder a páginas normales a las que debería tener acceso.

Tanto el sistema de listas negras como el de palabras clave actuales generan alguno de estos problemas: el uso de palabras clave impide acceder a páginas plenamente razonables (por ejemplo, páginas de astronomía que incluyen la expresión ojo desnudo) y no bloquea el acceso a otras (páginas pornográficas que sólo contengan fotografías, o en las que las palabras clave estén en una lengua no reconocida por el programa). Este resultado se debe al hecho de que el sistema es muy simple y no es capaz de percibir el contexto en el que se encuentran las palabras. Otro ejemplo muy conocido es el de la expresión pechos (breasts); pese a que este término se emplea continuamente en las páginas pornográficas, también puede tener un uso totalmente inocuo en una página que hable sobre cáncer de pecho, —de forma que impedimos, por ejemplo, que una adolescente pueda informarse desde Internet sobre esta enfermedad, una situación indiscutiblemente absurda.

El uso de listas negras, si están bien elaboradas, debería garantizar que ninguna página "razonable" esté en la lista (exceptuando errores comprensibles o abusos[1]), pero como Internet es un ente descentralizado, enorme y en continua mutación, es imposible garantizar listas completas; de forma que, con un poco de paciencia, el menor acabará accediendo al material nocivo que le interese.


2.2. Problemas de ubicación
En las bibliotecas públicas tienen acceso tanto menores como adultos. ¿Es razonable utilizar filtros? ¿Qué derecho prevalece en estos espacios: el del menor o el del adulto? Pensamos que existen muchos argumentos a favor de no introducir filtros en las bibliotecas públicas y muy pocos —o ninguno— para hacerlo.

En primer lugar, las bibliotecas públicas, que son los únicos espacios para que mucha gente pueda leer libros, son todavía hoy el único espacio de acceso público y gratuito a Internet. Si introducimos filtros, estamos censurando a muchos adultos que sólo tienen esta forma de acceso a la red y que, por tanto, no tienen otra alternativa de acceder a estas páginas censuradas. Alguien podría decir que las bibliotecas no son el espacio adecuado para acceder a la pornografía, pero no todo el material nocivo ha de ser necesariamente de carácter pornográfico. Por ejemplo, es razonable impedir que un menor acceda a una página en la que se describa la violencia brutal practicada por los nazis en los campos de concentración, pero, sin duda, son páginas que cualquier adulto debería visitar. Una persona homosexual adulta tiene el perfecto derecho a informarse sobre el estilo de vida de su comunidad, pero muchos padres pensarán que este tipo de información no es bueno para un menor que aún se está formando emocional y sexualmente. Parece que no podemos limitar los derechos de los adultos a la información cuando no tienen otras alternativas al alcance, de forma que el uso de filtros no es muy recomendable en este caso.

En segundo lugar, tal como veremos en la siguiente sección, los filtros no son casi nunca reprogramables o modificables por padres y educadores —en este caso, los bibliotecarios—, de manera que no son ellos los que deciden qué textos se ofrecen, sino las empresas. Una actuación así parece también poco recomendable.

En tercer lugar, los filtros, tal como hemos explicado en la sección anterior sobre eficiencia, cometen diversos errores y hacen que no se pueda acceder a páginas de mucha importancia para adultos y menores. Un padre puede decidir, en un momento dado, aceptar la dificultad y pensar que vale más la pena que el niño no acceda a ningún sitio nocivo, aunque con ello se impida también el acceso a estas páginas importantes. Asimismo, un estado no puede decidir hacer esto con personas adultas: estaríamos ante un caso de censura generada técnicamente. Para hacernos una idea, aquí tenemos una lista de textos prohibidos por los programas de más uso[2]:

Sitios web dedicados a explicar técnicas de sexo seguro para evitar el SIDA, listas de libros prohibidos por diversas dictaduras, la American Association of University Women Maryland (AAUW Maryland), páginas del columnista del San Francisco Examiner, Robert Morse, una página que ofrece ayuda a adolescentes con problemas acerca de su posible homosexualidad, The Ethical Spectacle, de Jonathan Wallace... sin olvidarnos de las páginas dedicadas a astronomía, cáncer de pecho y muchas otras.

2.3. Problemas de generalización
¿Hasta qué punto se pueden desarrollar programas de filtrado capaces de recoger los valores de una comunidad? Cada grupo étnico, cada país, incluso cada familia, tiene una visión distinta de lo que un menor puede ver o no, y esto no implica sólo pornografía o violencia, sino también otras cuestiones como la religión, la política, el arte, etc. Por ejemplo, en Estados Unidos, los criterios sobre lo que resulta erótico son mucho más estrictos que en Europa. Allí, la visión de un pecho se considera ya intolerable para un menor, y se han llegado a prohibir exposiciones artísticas en determinados estados de ese país porque incluían cuadros y esculturas de desnudos femeninos en los que se mostraban pechos.

La razón última de estos problemas radica en el formato técnico de estos programas, ya que son como cajas negras para el usuario, que no puede modificar los criterios de acceso.

En el caso de los filtros que funcionan con listas negras, esto se hace por cuestiones puramente comerciales. La parte "jugosa" del producto es la lista de sitios prohibidos: como la empresa no quiere que la competencia se apodere de esta lista y la utilice para sus productos, dicha lista se encuentra, normalmente, cifrada y es inaccesible. Asimismo, esto implica un problema bastante grave para los padres y educadores: éstos no saben qué páginas están prohibidas y cuáles, no; de forma que, al final, es la empresa y no los padres la que decide lo que su hijo puede ver o no.

En el caso de los filtros activados con palabras clave, el problema es diferente, pero el resultado es el mismo. En primer lugar, en buena parte de los programas, esta lista de palabras clave no se puede cambiar, ya que están introducidas en el programa, y aunque el usuario pueda editar la lista de palabras clave, esto no servirá de mucho. Como hemos dicho, estos sistemas no son capaces de entender contextos, así que una persona no puede hacer distinciones interesantes más allá del proverbial caca, culo, pedo, pis. Imaginemos que un padre no quiere que su hijo vea pornografía —hetero u homosexual—, pero no le importa que visite páginas web de homosexualidad de carácter informativo en las que se explique cómo es el estilo de vida de este colectivo, con la idea de que aprenda a respetarlo. Una distinción así, que es muy razonable, está totalmente fuera del alcance de los productos más modernos de filtrado que existen actualmente en el mercado.


3. PICS. El filtrado obligatorio

Ante los problemas indicados en el apartado anterior, un número significativo de gobiernos e instituciones ha defendido una forma de mejorar la idea original de filtro de manera que los problemas descritos anteriormente se puedan resolver. La idea es desarrollar un protocolo informático que permita al autor o terceras personas etiquetar un web indicando el tipo de contenido que se puede encontrar en él. El sistema más conocido y empleado es el PICS, y a él nos referiremos a partir de ahora.

PICS son las siglas inglesas de Plataforma para la Selección del Contenido en Internet. El creador de PICS, Paul Resnick, lo describe así[3]:

"[PICS es] un conjunto de estándares técnicos [...] para que la gente pueda distribuir electrónicamente descripciones de trabajos digitales de una forma sencilla e interpretable para los ordenadores. Éstos pueden procesar etiquetas en un segundo plano y, de esta forma, proteger automáticamente a los usuarios de material nocivo o dirigir su atención a sitios de particular interés. El estímulo original para desarrollar PICS fue permitir a los padres y maestros filtrar materiales que considerasen nocivos para los niños en la red. En lugar de censurar lo que se distribuye, como ha intentado la ley por la Decencia en las Comunicaciones [CDA son sus siglas inglesas, y actualmente está retirada por anticonstitucional], PICS posibilita que los usuarios controlen lo que reciben."


Es decir, un individuo puede configurar el programa de filtrado a partir de ciertos parámetros de forma que se impida el acceso a aquellos sitios web que no se adapten a nuestros estándares éticos. En principio, PICS es un sistema abierto; con lo cual, diversas organizaciones, gobiernos, grupos, etc., pueden elaborar sus propias listas sobre qué es correcto y qué no.

Los sistemas de categorización más conocidos son[4]:

RSACi. Patrocinado por el Consejo Asesor de Software Recreativo —los mismos que catalogan los videojuegos en Estados Unidos—: es seguramente el más conocido actualmente. Afirman tener más de 43.000 sitios web catalogados. Entre sus categorías incluyen "violencia", "desnudos", "sexo" y "lenguaje obsceno".

SafeSurf: desarrollado por la compañía de programario SafeSurf. Las categorías incluyen "límite de edad", "blasfemias", "temas heterosexuales", "temas homosexuales", "desnudos", "violencia", "sexo, violencia y blasfemias", "intolerancia", "glorificación del uso de las drogas", "otros temas para adultos" y "juego". Cada categoría tiene a su vez nueve subdivisiones.


Tanto SafeSurf como RSACi dependen principalmente de la autoclasificación de los autores.


NetShepherd: está basado en niveles de calidad (de 1 a 5 estrellas). A diferencia de SafeSurf y RSACi, NetShepherd encarga la clasificación a terceras personas. Afirman tener más de 300.000 sitios web clasificados.


PICS es mucho más eficaz que los sistemas antes mencionados. Al contrario del sistema de palabras clave, PICS es muy preciso y permite decidir con mucha más información si la página será aceptable o no, y, a diferencia de los programas con lista negra, que resultan opacos para el usuario, es un sistema abierto en el que cada cual puede controlar qué se censura y qué no.

Asimismo, el otro gran problema del programario de filtrado continúa: ¿qué pasa cuando una página no está etiquetada? Si decidimos acceder sólo a páginas que estén etiquetadas con PICS, los menores que utilicen los programas no podrán visitar muchas páginas completamente aceptables que no hayan sido etiquetadas. Si, por el contrario, dejamos que el adolescente visite libremente páginas no catalogadas por PICS, es más que factible que acabe en una página de contenido nocivo o incluso ilegal.

Para resolver esta segunda dificultad, diversos gobiernos, como el de Estados Unidos, y la Unión Europea estudian la posibilidad de hacer obligatoria la catalogación, con PICS o un equivalente, de aquellas páginas que puedan ser nocivas. La persona que tuviese una página ilegal o nociva sin catalogar podría ser castigada con importantes multas, e incluso con penas de prisión. Indudablemente, este mecanismo haría que el sistema fuese mucho más funcional; pero, ¿a qué precio?

En primer lugar, existen páginas muy difíciles de catalogar. Al hablar de PICS se acostumbra a decir que no hay ningún problema, que es similar a la catalogación de películas y series televisivas. Lo que se olvida muchas veces es que los sistemas de clasificación para decidir si una película es visible o no se aplican sólo a obras de entretenimiento, nunca a documentales o cursos audiovisuales. En cambio, el sistema PICS debería aplicarse a cualquier contenido de Internet —incluyendo los de temática política, ideológica, moral o religiosa—, y es aquí donde empiezan los problemas. Por ejemplo, una página pensada para que los adolescentes conozcan técnicas de sexo seguro sería inadecuada para los menores en cualquier sistema PICS, ya que contendría imágenes y/o textos con sexo explícito; pero el objetivo del autor son, precisamente, los menores de edad.

En segundo lugar, la diversidad de criterios éticos en las distintas comunidades generaría problemas irresolubles en el momento de catalogar. Una página web que contuviese las fotos sexualmente explícitas del artista Robert Maplethorpe, por ejemplo, ¿debería ser catalogada como arte o como pornografía? Recordemos que, en ciertos estados de EE.UU., las exposiciones de este autor estuvieron prohibidas.

Finalmente, la obligación de autocatalogar un servicio entraría en conflicto con la libertad de expresión de los creadores de páginas web. En el mundo real, como hemos dicho anteriormente, la obligación de catalogación se aplica sólo a las obras de entretenimiento y no a las culturales o de contenido político. Sería como si el autor de un libro sobre trotskismo se viese obligado a añadir una nota que dijese: "Atención: su hijo se puede convertir en un violento revolucionario si lee este libro".

La alternativa de emplear sistemas de clasificaciones elaborados por terceras personas, como en el caso de NetShepherd, tiene el problema obvio de que, si se hace obligatorio el uso de uno de estos sistemas, o incluso de una colección de éstos, se entra automáticamente en un tipo de censura. Sería el equivalente electrónico de una lista de libros prohibidos. Por otro lado, los autores no deberían estar de acuerdo necesariamente con la catalogación de esta tercera persona, y se generarían conflictos casi imposibles de resolver.


4. Soluciones prácticas al problema

¿Hay alguna forma de introducir los sistemas de filtrado en Internet de manera que se evite buena parte de estos conflictos éticos? ¿Cómo habría que hacerlo?

Primeramente, desaconsejamos absolutamente la obligatoriedad de estos sistemas. Si se obliga a los autores a catalogar sus páginas, estamos violentando gratuitamente, en primer lugar, su libertad de expresión y, en segundo lugar, estamos generando problemas conceptuales casi imposibles de solucionar cuando salimos del espacio del entretenimiento y nos vemos obligados a catalogar páginas de contenido religioso, ideológico, político, filosófico, moral o científico.

Si, por el contrario, encargamos a terceras personas la catalogación de las listas, en primer lugar, impondríamos una visión monolítica de la ética, lo que es totalmente contrario a la idea de que los estados han de respetar la pluralidad ética de sus ciudadanos y ciudadanas. En segundo lugar, estaríamos creando un sistema que funcionaría exactamente igual que una lista de libros censores; de hecho, desarrollaríamos un método de censura virtual.

También desaconsejamos la introducción de programas de filtrado en los espacios públicos como las bibliotecas, aunque acudan a ella menores, por el hecho de que se violentarían diversos derechos básicos de los adultos que también van a estas bibliotecas públicas.

Tenemos sólo la opción del filtrado opcional. Aquellos padres que, por cuestión de tiempo, falta de conocimientos, etc., no puedan vigilar a sus hijos mientras navegan por la red y prefieran trabajar con un programa de filtrado, pueden hacerlo, pero siendo conscientes siempre de las limitaciones de este método.

El mayor peligro de este sistema es la falta de pluralidad de criterios para los padres en el momento de escoger. Igual que los estados tienen la obligación de ofrecer a los padres diversas opciones en la educación de sus hijos —con el fin de evitar monismos éticos que generen una población monocolor a nivel moral— pensamos que los estados han de contemplar en sus presupuestos la financiación de organizaciones de la más diversa índole ética, ideológica y política para que elaboren filtros de contenido siguiendo sus criterios, y así garantizar el pluralismo. Sin embargo, estos criterios deberían ser analizados por expertos en ética y derechos humanos para decidir si estos filtros entran en conflicto con alguno de los derechos básicos garantizados por nuestra Constitución.

En cualquier caso, los padres y educadores han de ser muy conscientes de todas las dificultades técnicas descritas en el segundo apartado y, por tanto, querríamos acabar observando que nada puede sustituir a la vigilancia directa de padres y educadores. Serán éstos los que deberán decidir si lo que su hijo o pupilo contempla en Internet es saludable o nocivo para su desarrollo moral, emotivo y sexual. Ninguna herramienta informática, por muy sofisticada que sea, puede sustituir a la relación padre-hijo. Nada puede sustituir al diálogo padre-hijo. Si hay confianza entre ambas partes, tarde o temprano el hijo hablará con el padre o la madre y le consultará si es verdad que el Holocausto no existió nunca, si está bien que dos hombres se besen o si es realmente peligroso tomar éxtasis antes de salir a bailar. Es en estos momentos cuando el padre o educador concienciados sabrán qué tipo de contenido está viendo su hijo o pupilo en Internet y le podrán recomendar la mejor forma de relacionarse con ese material. Si no existe comunicación, por muchas medidas técnicas que se desarrollen, el menor acabará accediendo a webs nocivos e ilegales (puede conectarse en un café de Internet, en casa de un amigo, descubrir la contraseña para desconectar el filtro, etc.).

Muchas veces se ve la ética como un sistema de prohibiciones. Creemos que esto está muy lejos de la realidad. Lo que debe ofrecer la ética son posibilidades, alternativas. El mundo, cuanto más plural y abierto se muestre, más rico y libre será. Lo mismo le sucederá a Internet. Por ello favorecemos el uso de filtros de contenido opcional, con supervisión paterna, para garantizar la diversidad en la red.




Notas:
[*] Este texto fue presentado en el I Congreso Internacional sobre Comunicación y Realidad, celebrado en Barcelona entre el 18 y el 20 de mayo de 2000, y fue publicado por la revista Trípodos en el número extraordinario del mismo año.
[1] Diversas empresas fabricantes de software de filtrado con listas negras han añadido en la lista de webs prohibidos a organizaciones de derechos humanos que les habían criticado e, incluso, a la competencia, amparándose en el hecho —explicado más adelante en la comunicación— de que la lista de sitios prohibidos no es accesible para el usuario.
[2] Lista proporcionada en: IFEA, Joint Statement for the Record on "Kids and the Internet: The Promise and the Perils", 14-12-1998 http://www.eff.org/pub/ Censorship/Academic_edu/ Library_filtering/HTML/ 19981214_ifea_nclis _statement.html
[3] RESNICK, P. (1993, marzo). "An Introduction to PICS". Scientific American. Pág. 50-58.
[4] La fuente utilizada es el FAQ sobre filtrado, de Harry Hochheiser, secretario del CPSR (http://www.cpsr.org)


Enlaces relacionados:

Kriptópolis
http://www.kriptopolis.com
CPRS-ES
http://www.cpsr.org/chapters/spain
Equipo Nizkor
http://www.derechos.org/nizkor
Human Rights Forum
http://www.civilrightsforum.com
[Fecha de publicación: octubre de 2001]