We can't find the internet
Attempting to reconnect
Something went wrong!
Hang in there while we get back on track
Análisis
Todo ha ido a peor desde el Cuecat. Orígenes de la manipulación y la vigilancia del usuario
En algún momento de 2001, entré en una tienda Radio Shack en la calle del Mercado en San Francisco y pedí un Cuecat: un escáner portátil de códigos de barras que recordaba un poco a un gato y otro poco a un juguete sexual. La dependienta me entregó uno y me fui, sintiéndome un poco mareado. No había pagado ni un céntimo.
El Cuecat era una buena idea y una idea terrible. La buena idea era distribuir, a gran escala, lectores de códigos de barras a personas que tuvieran un ordenador, junto con el software que podría leer y decodificar los códigos de barras. El márquetin de la compañía pedía a revistas y periódicos imprimir dichos códigos de barras junto a anuncios y artículos, para que los lectores pudieran escanearlos para acceder a su versión digital. Para que el Cuecat se extendiera, la compañía recaudó millones en los mercados de capital, manufacturó en masa estas cosas y los regaló en tiendas de todo el país. ¡Cada persona suscriptora de Wired y de Forbes recibió uno por correo!
Esa era la buena idea (que fue básicamente un prototipo para los códigos QR de la actualidad). La idea terrible era que este aparato te espiaba. También, que solo funcionaba con códigos de barras especiales para los que había que obtener una licencia del fabricante. Además, solo funcionaba en Windows.
Pero el fabricante no tuvo la última palabra. Para nada. Un par de hackers emprendedores (Pierre Philippe Coupard y Michael Rothwell) despiezaron un Cuecat, volcaron su ROM y produjeron su propio driver: un driver sin vigilancia que podía funcionar con cualquier código de barras. Podías usarlo para escanear los códigos universales de producto (UPC) de tus libros o CDs o DVDs para crear un catálogo de tu colección, podías usarlo para escanear UPCs de los productos que necesitabas para hacer la lista de la compra. Podías hacer cada una de estas cosas, porque el Cuecat era tuyo.
Al fabricante del Cuecat, Digital Convergence, todo esto no le gustó nada. Mandaron cartas con requerimientos legales e incluso apagaron algunos de los repositorios en los que se almacenaban drivers alternativos. Cambiaron la licencia que venía con el CD del software del Cuecat para prohibir la ingeniería inversa.
Pero no importó, ni en términos prácticos ni legales. En términos prácticos, el gato (ejem) ya estaba fuera del saco: había tantas compañías de alojamiento web por aquel entonces, y la gente replicó el código a tantas de ellas, que el fabricante habría tenido que dedicarse por entero a rastrearlas e intimidarlas para que eliminaran el código.
Y encima estaba la parte legal: ¿cómo podías imponer términos de licencia en un regalo?, ¿cómo podría alguien estar sujeto a los términos de una licencia que venía en un CD que simplemente descartó sin jamás abrirlo, y mucho menos meterlo en su ordenador?
Al final, Cuecat cerró y vendió el inventario remanente. Los primeros 2000 no eran un buen momento para ser una compañía tecnológica, y mucho menos una compañía tecnológica cuyo modelo de negocio requería que millones de personas aceptaran obedientemente un trato malo.
No importa cuántas variaciones te ofrezca una corporación: nunca podrán anticipar todas las formas en las que querrás o necesitarás usar su tecnología
Por aquel entonces, las personas que usaban la tecnología no se sentían obligadas a satisfacer a los accionistas de las compañías tecnológicas: si ellos apoyaban negocios estúpidos, era su problema, no el nuestro. Los capitalistas de riesgo eran capitalistas: si hubieran querido que les diéramos según su necesidad y les exigiéramos según su habilidad, entonces habrían tenido que ser comunistas de riesgo.
En agosto pasado, la filósofa y directora del Centre for Technomoral Futures Shannon Vallor tuiteó: “Lo más triste para mí de la larga espiral hacia la manipulación y la vigilancia en que está metida la tecnología moderna es cómo ha ido matando lentamente la alegría que gente como yo solía sentir acerca de las nuevas tecnologías. Cada producto que anuncian Meta o Amazon hace que el futuro parezca más gris y más lúgubre”.
Y seguía: “No creo que sea solo mi nostalgia, ¿no? Ya no existe ninguna promesa de las que hacen las compañías tecnológicas que hayamos pedido o realmente necesitemos. Solo más vigilancia, más empujones (1), más extractivismo con nuestros datos, con nuestro tiempo, con nuestra alegría”.
Hoy, en Tumblr, Wil Wheaton respondió: “[R]ealmente, se ha perdido el sentimiento de ‘¿cómo puede esto cambiar/mejorar mi vida?’, y a cambio hay un miedo constante a ‘¿cómo complicará esto las cosas mientras intento mantener la privacidad y la cordura en un mundo que exige que tenga esta cosa para poder existir?’“ Wil terminaba con ”Cory Doctorow, si ves esto y se te ocurren cosas, me ENCANTARÍA saberlas".
Se me ocurren cosas. Y creo que todo se remonta al Cuecat.
Cuando el Cuecat fue presentado, era un cajón de sastre. Esto suele ser generalmente así con la tecnología, o de hecho con cualquier producto o servicio. No importa cuántas variaciones te ofrezca una corporación: nunca podrán anticipar todas las formas en las que querrás o necesitarás usar su tecnología. Esto es especialmente verdad para aquellos usuarios que las compañías valoran menos: gente pobre, gente del Sur global, mujeres, trabajadoras sexuales, etc.
En Emotional Design, Norman trató de probar que la estética es funcional, porque la estética prepara a las personas para arreglar los errores, omisiones y puntos ciegos de los diseñadores
Por eso, la frase “tan fácil que hasta tu madre puede usarlo” es tan horrible. Las “madres” son el tipo de personas cuyas prioridades y dificultades nunca hacen acto de presencia cuando los diseñadores de tecnología se juntan para planear su siguiente producto. Las necesidades de las “madres” son mayormente resueltas mediante el amaestramiento, la configuración y la adaptación de la tecnología, porque esta no suele funcionar directamente para ellas. (Como alternativa, abogo por “tan fácil que tu jefe puede usarlo”, porque tu jefe puede llamar al departamento tecnológico y gritar “No me importa cuánto cueste, ¡hacedlo funcionar!” Tu jefe puede resolver problemas a través del crudo ejercicio de la autoridad, sin necesidad de recurrir a la ingenuidad).
No es posible entender la tecnología de forma separada de las personas que la usan. Esta es la clave del libro de 2004 Emotional Design, de Donald Norman, que argumentaba que el estado fundamental de toda tecnología está roto, y que la tarea dominante de los usuarios de tecnología es arreglar las cosas que usan.
El diagnóstico y la resolución de problemas es tanto un arte como una ciencia: requiere tanto una aproximación metódica y saltos creativos. La gran crisis de la resolución de problemas es que cuanto más frustrado y enfadada estás, más difícil resulta ser metódica o creativa. El enfado convierte tu atención en un estrecho túnel de precarios movimientos y pensamientos.
En Emotional Design, Norman argumenta que la tecnología debería ser bella y sugerente, porque cuando te gusta una tecnología así que ha dejado de funcionar, eres capaz de arreglarla de forma creativa y expansiva. Emotional Design no es meramente reseñable por lo que dice, sino también por quién lo dice. Después de todo, Donald Norman fue el autor del enormemente influyente clásico de 1988 La psicología de los objetos cotidianos (Ed. Nerea, 2010), que aconsejaba a diseñadores e ingenieros poner la función sobre la forma: diseñar cosas que funcionaran bien, incluso si eso significaba prescindir de ornamentos y cuestiones estéticas. Así, en Emotional Design, Norman trató de probar que la estética es funcional, porque la estética prepara a las personas para arreglar los errores, omisiones y puntos ciegos de los diseñadores. Se trataba de un manifiesto a favor de la capacidad y la humildad.
Y, sin embargo, conforme la tecnología digital ha ido permeando cada vez más profundamente nuestras vidas, se ha ido haciendo menos configurable, no más. Las compañías de hoy han tenido éxito donde Cuecat falló. Consolidarse en el mundo digital significa que si eliminas un enlace de un buscador y de las webs de cuatro medios sociales, el material en cuestión desaparece para el 99% de las personas usuarias de internet.
Es aún peor para las apps. Cualquiera que logre eliminar una aplicación de dos tiendas virtuales concretas, esencialmente la erradica del mundo. Una plataforma móvil usa contramedidas tecnológicas y legales para hacer virtualmente imposible que cargues una aplicación sin su permiso, la otra confía en tácticas de intimidación y avisos engañosos para hacer lo mismo.
Esto significa que hoy, cuando unos modernos Coupard y Rothwell deciden des-joder cualquier elemento tecnológico (para eliminar los requerimientos de vigilancia y medios propietarios, dejando solo las funcionalidades bienvenidas), solo pueden hacerlo con la tolerancia del fabricante. Si al fabricante no le gusta un añadido, modificación, plug-in o capa, pueden usar golpes de copyright, leyes antielusión, amenazar con patentes o marcas registradas, leyes de ciberseguridad, legislación mercantil y otras propiedades intelectuales para, simplemente, proscribir el código transgresor.
Muchas de estas leyes conllevan duras penas. Por ejemplo, distribuir una herramienta que se salte un “control de acceso” para poder cambiar el software de un aparato (por ejemplo, para hacer que tu impresora acepte tinta de otros proveedores) es un delito según la Sección 1201 de la Digital Millennium Copyright Act, castigable con una multa de medio millón de dólares y cinco años de prisión.
La “seguridad feudal” proporciona una tentación terrible a los señores de las fortalezas, porque una vez que estás dentro de esos muros, la fortaleza puede fácilmente convertirse en prisión
Si los fabricantes del Cuecat hubieran simplemente añadido a su controlador una fina capa de DRM (2), podrían haber amenazado a Coupard y Rothwell con penas de prisión. Los desarrollos en la “propiedad intelectual” a lo largo de las dos décadas posteriores al Cuecat se han sacado de la manga un nuevo cuerpo legal de facto que Jay Freeman llama “delito de desacato al modelo de negocio”.
Una vez que dimos a las compañías el poder de literalmente criminalizar la reconfiguración de sus productos, todo cambió. En la era Cuecat, una reunión corporativa para planear un producto que atentara contra los intereses de sus usuarios debía preguntarse: «¿cómo endulzaremos y/o complicaremos nuestro código para que nuestros usuarios no eliminen las anti-prestaciones con las que queremos agredirles?» Pero en un mundo de delitos de desacato al modelo de negocio, esa discusión cambia a «dado que podemos literalmente encarcelar a cualquiera que ayude a nuestros usuarios a usar este producto mejor, ¿cómo podemos castigar a los usuarios que sean tan desleales como para simplemente abandonar nuestro servicio o cambiar nuestro producto por otro?» Es decir, «¿cómo podemos elevar los costes de reemplazo de nuestros productos para que los usuarios que están enfadados con nosotros sigan usándolos?» Cuando Facebook estaba planeando su producto de fotos, deliberadamente lo diseñaron para tentar a los usuarios a convertirlo en su único repositorio de fotos familiares, para así usar esas fotos como rehén para evitar que los usuarios de Facebook se fueran a Google+.
Las compañías proclaman que sus estrategias de encierro son para proteger a sus usuarios: «Vente a nuestro jardín vallado, porque es una fortaleza cuyas almenas rebosan de bravos guerreros que te defenderán de los bandidos que recorren los caminos». Sin embargo, esta “seguridad feudal” proporciona una tentación terrible a los señores de las fortalezas, porque una vez que estás dentro de esos muros, la fortaleza puede fácilmente convertirse en prisión: estas compañías pueden abusar de ti con impunidad mientras el coste del abuso sea menor que el coste de las cosas a las que debes renunciar para marcharte.
El cuento de que las compañías bloquean que invalides sus decisiones por tu propio bien siempre fue sospechoso, porque simplemente no pueden anticipar todas las formas en que sus productos te van a fallar. No hay equipo de diseño que sepa tanto sobre tus dificultades en cada momento como tú. Pero incluso cuando las compañías son sinceras en su deseo de ser el más benevolente de los dictadores, la pistola en la repisa de la chimenea en el primer acto está destinada a ser disparada en el tercero: con el tiempo, la tentación de beneficiarse haciéndote daño se sobrepondrá a cualquier tipo de “ética corporativa” que una vez frenara la mano de los tecno-feudalistas que gobiernan el castillo. Bajo la seguridad feudal, estás a un lapsus en el liderazgo corporativo de que tu protector se convierta en tu torturador.
Cuando Apple sacó su Ipad hace 12 años, publiqué un editorial titulado «Por qué no compraré un iPad (y creo que tú tampoco deberías)», en el que predije que las app stores inevitablemente serían utilizadas contra los usuarios. Hoy en día, Apple prohíbe aplicaciones si «usan un servicio de terceros» a no ser que «estén específicamente permitidas para hacerlo bajo los términos de uso del servicio». En otras palabras, Apple prohíbe específicamente a los desarrolladores que ofrezcan herramientas que puedan desagradar a los accionistas de otras compañías, independientemente de si eso ayuda o no a los clientes de Apple. Es destacable que la cláusula 5.2.2 del acuerdo para desarrolladores de Apple no dice «No debes violar términos de servicio que sean legalmente denunciables». Solo dice «No violarás un EULA». Los EULA (por End-User License Agreement, “acuerdo de licencia para el usuario final”), son novelitas basura escritas en legalés impenetrable, engrasadas con términos inadmisibles e inaplicables.
Cuando una compañía puede echar mano de sus afirmaciones sobre protegerte a ti para protegerse a sí misma de ti sería bastante jodidamente naïf esperar que hiciera otra cosa
Apple, a veces, sí desagradará a otras compañías por ti. Por ejemplo, estableció una configuración opcional anti-rastreo, activable con un solo click, que costó a Facebook diez mil millones de dólares en solo unos meses. Pero Apple tiene también grandes planes para expandir sus márgenes desarrollando su propia red de publicidad. Cuando los clientes de Apple elijan bloqueadores de publicidad que bloqueen los anuncios de Apple, ¿lo permitirá?
El problema con las tiendas de aplicaciones no es si tu experiencia tecnológica es “comisariada”: es decir, si hay entidades en las que confías que pueden producir colecciones de software del que puedan responder. El problema es cuando no puedes elegir a otro: cuando abandonar una plataforma conlleva un coste de reemplazo elevado, ya sea por tener que sustituir hardware, comprar nuevos medios o decir adiós a tus amigos, clientes, comunidad o familia.
Cuando una compañía puede echar mano de sus afirmaciones sobre protegerte a ti para protegerse a sí misma de ti (de decisiones que puedas tomar que al final socaven los intereses de sus accionistas, incluso si éstas protegen tus propios intereses) sería bastante jodidamente naïf esperar que hiciera otra cosa. Más y más de nuestras herramientas son ahora herramientas digitales, ya hablemos de redes sociales o coches, tractores o videojuegos, cepillos de dientes u hornos. Y, cada vez más, estas herramientas digitales se parecen más a apps que a Cuecats, con compañías usando la “propiedad intelectual” para permitirles controlar quién puede competir con ellas (y cómo). De hecho, los navegadores cada vez se parecen más a apps, más que al revés.
En 2017, el W3C(3) dio el paso sin precedentes de publicar un estándar de gestión de derechos digitales (DRM) pese a que este estándar no obtuviera nada parecido al consenso que es la norma para las publicaciones del W3C, y rechazó una propuesta para proteger a la gente que aplicó ingeniería inversa a dicho estándar para añadir características de accesibilidad o corregir defectos de privacidad. Y, pese a que estemos presenciando un progreso destacable en el ámbito del Derecho a Reparar y otras políticas que permiten a los usuarios de tecnología saltarse las decisiones de los vendedores, hay otra fuerte corriente reguladora que abraza la capacidad de las compañías de controlar a sus usuarios, en la esperanza de que estas grandes compañías vigilarán a sus usuarios para prevenir cosas malas, desde medidas controvertidas como el filtrado por violaciones de copyright hasta ideas generalmente más aceptadas como el bloqueo de material de abusos sexuales infantiles (también llamado “porno infantil”).
Hay dos problemas con esto. Primero, si le decimos a las compañías que deben controlar a sus usuarios (es decir, bloquear que usen plugins, modificaciones, skins, filtros etc) entonces no podemos decirles que no deben controlar a sus usuarios. Se reduce a si quieres que Mark Zuckenberg haga mejor su trabajo, o si quieres abolir el trabajo de Mark Zuckenberg. Y aún queda el otro problema: el problema de la pistola en la repisa. Si damos a las grandes compañías el poder de controlar a sus usuarios, entonces sufrirán enormes presiones internas para abusar de ese poder. Esto no es un riesgo hipotético: altos ejecutivos de Facebook han sido acusados de aceptar sobornos por parte de Onlyfans a cambio de añadir artistas que habían abandonado Onlyfans a una lista de vigilancia antiterrorista, lo que significaba que no podían usar otras plataformas.
Por motivos obvios, no soy muy fan de las listas de terroristas. Pero dejar que sea Facebook quien maneje una tal lista fue claramente un error. Lo que pasa es que el estatuto de Facebook como “informante confiable” emana directamente del buen trabajo de Facebook con la moderación. La lección es la misma que con Apple y los anuncios: solo porque la compañía a veces actúe a favor de nuestros intereses, no implica que debamos confiar en que lo va a hacer siempre.
Volvamos a la pregunta de Shannon Vallor sobre los orígenes de la «la larga espiral hacia la manipulación y la vigilancia» y cómo está «matando lentamente la alegría que gente como yo solía sentir acerca de las nuevas tecnologías», y al «miedo constante a cómo complicará esto las cosas mientras intento mantener la privacidad y la cordura» de Wil Wheaton. No es que los líderes tecnológicos se hayan vuelto más estúpidos o más crueles desde aquellos días felices. La industria tecnológica estuvo y está llena de gente que se consagró a construir armas de destrucción masiva para la industria militar. IBM, la compañía que nos brindó el PC, construyó las máquinas tabuladoras para los campos de concentración nazis.
No reemplazamos a los inversores y líderes tecnológicos con gente peor: tenemos el mismo tipo de gente, pero les dejamos que se salgan más con la suya. Les dejamos comprar a todos sus competidores. Les dejamos usar la ley para dejar fuera a competidores que no pudieron comprar, incluyendo aquellos que podrían ofrecer a sus clientes herramientas para disminuir sus costes de reemplazo y bloquear anti-prestaciones abusivas. Decidimos crear delitos de desacato al modelo de negocio, y dejar que los creadores del siguiente Cuecat puedan estirarse desde dentro de los muros de sus oficinas centrales corporativas hasta los hogares de sus clientes, las oficinas de sus competidores, y el puñado de enormes sitios web que controlan nuestro discurso online, para, así, alcanzar esos lugares y estrangular cualquier cosa que interfiera con sus deseos comerciales.
Es por esto que los planes para imponer la interoperabilidad entre los gigantes tecnológicos son tan ilusionantes: porque el problema de Facebook no es que «la gente con la que quiero hablar está toda junta en un lugar conveniente», ni el problema con las app stores es que «estas compañías generalmente tienen buen juicio sobre qué aplicaciones quiero usar». El problema es que cuando esas compañías no cuidan de ti, tienes que pagar un precio inasumiblemente alto para salir de sus jardines vallados. Ahí es donde entra la interoperabilidad. Pensemos en cómo un Facebook interoperable podría permitirte abandonar el dominio de Zuckenberg sin renegar de la gente que te importa.
Los Cuecats molaban. La gente que los hizo era gilipollas. La interoperabilidad significaba que podías pillar el aparatito molón y mandar a los gilipollas a cagar. Hemos perdido la habilidad de hacer eso, poco a poco, durante décadas, y ese es el motivo de que una tecnología nueva que parece molar ya no nos excita. Es por eso que sentimos miedo: porque sabemos que una tecnología molona es solo un cebo para atraernos hacia una prisión que se disfraza de fortaleza.
2Siglas de Digital Rights Management, término genérico para referirse a la gestión de derechos digitales. N. de la T.
3 El Consorcio WWW, en inglés: World Wide Web Consortium (W3C), es un consorcio internacional que genera recomendaciones y estándares que aseguran el crecimiento de la World Wide Web a largo plazo. N. del T., copiada de Wikipedia.
🄯 del texto original, Cory Doctorow, con una licencia CC BY 4.0 Artículo original: It was all downhill after the Cuecat.
🄯 de la traducción, inwit (inwit@sindominio.net), con una licencia CC-BY-SA.