SmugMug es una plataforma familiar de alojamiento de fotografías y comercio electrónico que ayuda a los fotógrafos profesionales a gestionar sus negocios en línea. Fundada en 2002, la empresa ofrece herramientas para que los fotógrafos muestren su trabajo, entreguen galerías a sus clientes, vendan impresiones y gestionen pagos.
En 2018, SmugMug compró Flickr, la veterana comunidad de intercambio de fotografías, lo que sumó decenas de millones de fotógrafos aficionados activos a la base de usuarios de la empresa.
Ben MacAskill es el presidente y director de operaciones de la empresa matriz de SmugMug, Awesome, la cual cofundó junto con su familia. Awesome también incluye la red de medios This Week in Photo y la organización sin fines de lucro Flickr Foundation, que se centra en preservar la fotografía disponible públicamente. MacAskill ha sido una voz activa en los debates sobre políticas en torno a la Sección 230 y la regulación de plataformas en línea. Fue entrevistado por Joe Mullin, analista de políticas del Equipo de Activismo de la EFF.
Joe Mullin: ¿Cómo le explicaría la Sección 230 a un fotógrafo de SmugMug que no ha oído hablar de ella, pero que confía en ustedes para compartir su trabajo y administrar su negocio?
Ben MacAskill: La Sección 230 nos permite administrar nuestro negocio. Somos una pequeña empresa familiar. No tenemos los recursos para vigilar cada carga, cada comentario o cada interacción que se produce en el sitio.
Eso incluye a los fotógrafos que tienen comentarios en sus sitios. En cualquier lugar donde haya interacción en línea, la Sección 230 nos protege.
No nos exime de responsabilidad. No podemos hacer lo que nos plazca ni actuar sin control. Simplemente nos ayuda a protegernos y a hacerlo escalable para que podamos administrar nuestro negocio.
¿Qué tendrían que cambiar si la Sección 230 fuera eliminada o reducida significativamente?
Honestamente, hay muchas posibilidades de que llevara a la quiebra a plataformas como la nuestra. No son enormemente rentables. Si se elimina la Sección 230, tendríamos que revisar el contenido que se publica en línea para asegurarnos de no ser responsables. Eso significa vigilar decenas de millones de cargas al día.
Eso destruiría el negocio de muchos fotógrafos. ¿Se imagina que se acaba de casar y tiene que esperar sus fotos de boda una o dos semanas porque están en alguna cola de moderación?
Si no tenemos protecciones legales y nos topamos con un cliente malintencionado —si algo sale mal— entonces soy responsable de ello.
No sé, y me es imposible saber, si cada fotografía es apropiada o legal a medida que se carga. Literalmente tendríamos que moderar todo antes de que se publique en línea. No creo que ninguna empresa pueda permitirse eso, y punto. Supongo que se podría tener algo tipo centro de llamadas en el extranjero. Aun así, cambiaría toda la naturaleza del internet en tiempo real. Imagínese publicar algo en Instagram y que la plataforma le diga: “Genial, te responderemos en 8 a 12 días”.
¿Qué tipo de moderación de contenido realizan en SmugMug?
Si un usuario carga algo ilegal, lo denunciaremos en cuanto lo descubramos. No los estamos protegiendo. No toleramos ni permitimos el comportamiento ilegal. Trabajamos muy de cerca con organizaciones, entidades sin fines de lucro y agencias gubernamentales para detectar material de abuso sexual infantil (CSAM, por sus siglas en inglés) y lo denunciamos al Centro Nacional para Niños Desaparecidos y Explotados. Denunciamos a los usuarios, eliminamos el contenido ilegal de nuestras plataformas, lo cual es una de las razones por las que tenemos una prevalencia tan baja de ese problema.
Pero encontrarlo requiere tiempo y esfuerzo, y actualmente no existe una solución perfecta. Las soluciones tecnológicas que existen no pueden detectarlo con un 100 % de precisión, ni siquiera cerca. Y con decenas de millones de cargas al día, revisarlas una por una es imposible.
En términos más generales, ¿qué opina sobre la protección del discurso de los usuarios y la expresión creativa?
En SmugMug, nos centramos realmente en los profesionales que administran sus negocios. Así que no tenemos que intervenir demasiado en el contenido.
En Flickr, somos grandes defensores de la expresión y la creatividad artística. ¡Los fotógrafos tienen opiniones! Pero sí marcamos el límite en cosas como el discurso de odio y el acoso. Mantenemos agresivamente una plataforma amigable. Nuestras pautas comunitarias son muy específicas: no se puede acosar a otros clientes, no se pueden subir cosas clasificadas como discurso de odio, ni amenazas, ni nada por el estilo.
Por lo general, la comunidad es la encargada de vigilar esas reglas. Tenemos algunas herramientas de análisis de texto, pero cuando los miembros de la comunidad se sienten acosados o amenazados, nos llegan reportes. Los abordaremos uno por uno y eliminaremos el material de acoso de nuestra plataforma.
Nuestra capacidad de moderar es una de las cosas que hace que Flickr sea lo que es. Si perdemos la capacidad de hacer cumplir nuestras propias reglas de moderación —o si nos imponen leyes al respecto— entonces cambiará toda la naturaleza de la comunidad. Y no para bien. Perder la capacidad de moderar cambiaría permanente y definitivamente lo que hemos construido.
¿Qué tipo de quejas o solicitudes de eliminación reciben, y cómo las manejan, tanto en EE. UU. como en el extranjero?
A menudo se dice que Flickr es la comunidad más amigable de internet. Ya sabe, no lidiamos con mucho odio. No lidiamos con muchas amenazas. Bajo otros marcos legales, como la DMCA, realizamos eliminaciones de material protegido por derechos de autor.
Podemos manejarlo con un equipo totalmente interno y tenemos un gran historial. Pero la base de usuarios y la base de contenido es tan grande que, si tuviéramos que asumir que esas decenas de millones de cargas diarias son problemáticas, la carga de trabajo sería extrema.
Contamos con un sólido equipo de Confianza y Seguridad, y operamos en todos los países del mundo que no están embargados. Por lo tanto, estamos sujetos a muchas leyes y regulaciones diferentes: reglas sobre derechos de «imagen» y reglas de privacidad en ciertos países que no existen aquí en los Estados Unidos. Incluso de estado a estado, hay algunas leyes que varían. Es un marco complicado, pero le prestamos atención.
El mundo responde de manera muy similar a cómo funciona la Sección 230. Es decir, operamos en base a reportes y descubrimientos, no a la revisión previa de todo.
¿Qué cree que es lo que más suelen malinterpretar los legisladores sobre cómo operan plataformas como la suya?
Un error común es creer que no estamos sujetos a ninguna ley. Que la Sección 230 nos exime de cualquier responsabilidad u obligación, y que podemos hacer lo que queramos. Hablan de ello como «controlar a las empresas tecnológicas» o «responsabilizar a las empresas tecnológicas». Pero yo soy responsable del contenido de mi plataforma. No se nos ha dado una tarjeta de «salida libre de la cárcel».
Y creo que asumen que a ninguna plataforma le importa realmente esto, que todo lo que se hace es de mala gana. Pero somos muy proactivos a la hora de mantener una comunidad limpia, educada y amigable. Ya estamos vigilando nuestra plataforma de manera muy agresiva.
E incluso el contenido legal se modera, porque podría simplemente no ser apropiado para una comunidad en particular.
Hacemos cumplir nuestras reglas, y de manera muy parecida a como lo hacen otras empresas privadas en el mundo físico. Si usted empieza a gritar cosas odiosas a los clientes en una cafetería, lo van a echar. Ellos quieren un ambiente tranquilo y relajado donde la gente pueda tomarse su café. Nosotros estamos haciendo ese mismo tipo de cosas.
Como empresa familiar independiente, ustedes están en un ecosistema dominado por plataformas mucho más grandes. ¿En qué se diferencian estos problemas para ustedes al ser un servicio más pequeño?
Creo que es una amenaza mucho más existencial para las pequeñas y medianas empresas tecnológicas. También le cierra el paso a la próxima generación de estas plataformas. El estudiante de informática que ahora mismo está en su dormitorio universitario no tendrá las protecciones legales para lanzar, o siquiera intentar construir, algo nuevo. Al menos no aquí en los Estados Unidos.










