Cada vez es más frecuente el uso algoritmos que utilizan nuevas tecnologías de gestión de datos para la fijación de precios y de las estrategias comerciales de las empresas. Más allá del enfoque tradicional centrado en los costes, estos algoritmos se basan en un conjunto amplio de información sobre la estructura de la demanda y la oferta y las preferencias de los agentes que actúan en el mercado. Como señala un reciente informe de la OCDE, la importancia e implicaciones de este fenómeno son aun en gran medida desconocidas.
Como pasa con casi todo, las nuevas tecnologías tienen su cara, a través de la mejora de la eficiencia del mercado –tanto por el lado de la oferta como por el lado de la demanda, aproximando mejor a las preferencias de los agentes–; pero también su cruz, de forma que los algoritmos pueden introducir nuevos fallos de mercado. Hay, en particular, una creciente preocupación entre las autoridades de competencia sobre su potencial impacto facilitando la colusión y los equilibrios de tipo oligopólico en los mercados. El reto para las autoridades de competencia pasa por adaptar su instrumental regulatorio a esta nueva realidad.
Un algoritmo según la definición de la RAE es un “conjunto ordenado y finito de operaciones que permite hallar la solución de un problema”. Es, por tanto, un método para resolver un problema que puede ser matemático, pero también una receta de cocina, la planificación de la cosecha o de las horas del día para conciliar, o la fijación de precios en el mercado. El método puede ser una simple sucesión de pasos, un diagrama o un programa informático. Las nuevas tecnologías de computación permiten la sofisticación de los algoritmos manejando un gran volumen de información sobre las preferencias de los agentes del mercado (consumidores, productores, distribuidores), anticipando incluso su comportamiento.
El punto de partida, en la mayor parte de los análisis, es reconocer las mejoras de eficiencia que pueden introducir los algoritmos, reduciendo precios y mejorando calidad para los consumidores. No se trata, pues, de prohibirlos. Por ejemplo, por el lado de la oferta, permiten personalizar las recomendaciones de compra a los consumidores (como puede experimentar cualquiera que compre por Internet) o mejorar las decisiones de logística y planificación con un seguimiento instantáneo de las necesidades del consumidor (el modelo de Zara es paradigmático y de estudio habitual en las escuelas de negocios). Por el lado de la demanda, el ejemplo más extendido son las páginas web de comparación de precios (la publicidad de Trivago-Expedia y Rastreator ha sido efectiva en mi subconsciente), que usan algoritmos para buscar la mejor oferta para el consumidor.
El problema está en las ineficiencias que pueden introducir los algoritmos y en cómo contrarrestarlas. Un elemento a considerar son los nuevos fallos de mercado que pueden incorporar. Entre ellos, es interesante el riesgo de que los algoritmos introduzcan un sesgo en favor de aquella información que ha caracterizado nuestro comportamiento pasado de forma que se refuerzan nuestros propios sesgos y creencias, un fenómeno del tipo “cámara de eco”. El problema es que este tipo de sesgo tiende a limitar la creatividad y la capacidad de innovación, que se alimenta precisamente de un entorno en el que la realidad se desvía de nuestras preconcepciones. Otro fallo es el que tiene que ver con la información imperfecta por la falta de transparencia o la complejidad del algoritmo, que afecta al consumidor, porque no toma decisiones plenamente conscientes, y al regulador, que no puede evaluar si cumplen la normativa de competencia.
Los algoritmos también plantean problemas de prácticas de mercado no competitivas. Una práctica creciente es la discriminación de precios en función de la demanda. La discriminación puede ser a través de precios dinámicos ‒como fijar precios en función de la estación, de la hora del o del volumen de demanda y oferta en cada momento (hoteles, líneas aéreas o, por ejemplo, Uber los aplican sin complejos)‒ o, incluso, con precios personalizados, establecidos en función de las preferencias o del poder adquisitivo del consumidor. En el límite, se plantea el riesgo de una discriminación de primer grado, es decir, cada unidad de producto se vende al precio máximo que cada consumidor está dispuesto a pagar por ella (por consiguiente, el productor se estaría apropiando de todo el excedente del consumidor).
Una práctica que está centrando el análisis de las autoridades de competencia es el riesgo de colusión de forma que se alcance un equilibrio con precio de oligopolio en los mercados. La regulación de la competencia distingue entre colusión explícita ‒existencia de un acuerdo o de una práctica concertada (explícita o implícita) con el objetivo de falsear la competencia‒ y colusión tácita, en la que las empresas adoptan estrategias maximizadoras independientes sin que exista una práctica concertada, pero, sin embargo, se alcanza un equilibrio de oligopolio a partir de la consideración de la interdependencia en el mercado (suele ser el caso de mercados muy transparentes con un reducido número de empresas). La colusión explicita está prohibida, se regula en el caso de Europa por el Artículo 101 del TFUE, y la tácita no.
Los algoritmos pueden reforzar ambos tipos de colusión. Cuando existe práctica concertada, el algoritmo facilita la revisión de manera automática de su cumplimiento y penalizar al gorrón que lo incumple, o automatizar las estrategias del tipo de seguimiento del líder o de ajuste a los cambios en la oferta del competidor. En teoría, aquí la aproximación puede seguir siendo la tradicional de la política de competencia, se analiza el diseño del algoritmo y se penalizan diseños anticompetitivos ‒sin perjuicio de la dificultad añadida como consecuencia de la falta de transparencia e información imperfecta sobre el algoritmo‒.
El problema está en que los algoritmos aumentan el riesgo de colusión tácita, incluso en mercados con un número elevado de competidores y sin restricciones a la entrada y salida de empresas, es decir, mercados sin la estructura tradicional de los mercados oligopólicos (pocos competidores y con barreras de entrada). Es un riesgo que aparece especialmente en mercados muy transparentes, con productos homogéneos y transacciones muy frecuentes. Los algoritmos “aprenden” del comportamiento de mercado y de la interdependencia entre las empresas y pueden llevar a precios de oligopolio sin necesidad de concertación. El ejemplo más común es el de las gasolineras, en las que la transparencia puede conducir a un aumento de precios tras un proceso de aprendizaje en el que van adaptándose a los precios mayores de las competidoras –Ezrachi y Stucke (autores especialmente citados en el problema de los algoritmos y la competencia) señalan ejemplos en Chile, Alemania y Australia–.
Ante estos problemas se reproduce el tradicional debate entre la aproximación de mercado frente a la regulación. Los defensores de una aproximación reguladora minimalista, dejando actuar al mercado, sostienen que los mercados tienen capacidad para autorregularse; que la colusión no es tan relevante porque en la práctica se produce una gran diferenciación de producto; que siempre puede haber nuevos entrantes (mavericks) que rompan las estructuras de mercado oligopólicas; o que los consumidores tienen su propia munición como las páginas de comparación de precios, la posibilidad de agruparse en plataformas de compradores con poder de monopsonio ‒para apropiarse en este caso de parte del excedente del productor‒; o de los llamados mayordomos digitales, que usan algoritmos personalizados para mejorar la eficiencia y el bienestar de cada consumidor.
Sin embargo, no está de más recordar una vez más que la autorregulación no es de fiar (desde luego, no lo es tras el ejemplo de la crisis financiera global). Por otro lado, el poder de los consumidores va, como mínimo, por detrás de las grandes empresas procesadoras de big data. Las autoridades de defensa de la competencia y de protección del consumidor deben adaptar su instrumental a los algoritmos, aunque solo sea para cumplir de manera efectiva con su propia misión, y, en general, así lo están haciendo ‒aquí analizábamos algunos ejemplos relacionados con los mercados de doble cara, incluyendo la importancia de desarrollar unos instrumentos cada vez más basados en el análisis de mercado, de los precios y de los excedentes de los agentes, más allá del enfoque tradicional que pone el foco en las conductas y prácticas restrictivas de la competencia‒.
El primer reto es adaptar las estructuras y el conocimiento institucional a la nueva realidad tecnológica. El segundo es entender las implicaciones para la competencia de los algoritmos. En este sentido Ezrachi y Stucke proponen el uso de “incubadoras de colusión” en las que se experimente sobre el impacto del uso de distintos algoritmos y las distintas medidas regulatorias (un tipo de medida muy similar al de las “regulatory sandboxes” de la fintech que analizábamos aquí). Respecto a las políticas a testar, el debate está girando en torno a distintos tipos de regulaciones incluyendo: el establecimiento de reglas sobre transparencia y rendición de cuentas a los algoritmos (a sus desarrolladores o a las empresas que los encargan y usan), o fijar reglas que limiten la transparencia o la velocidad y frecuencia con que los oferentes pueden cambiar precios ‒por ejemplo, limitar el cambio de precios al cierre del día o limitar la información que se puede ofrecer online‒.
Otra alternativa es la regulación de los algoritmos, prohibiendo que incorporen en su programación elementos anticompetitivos (por ejemplo, que no se fijen en precios de empresas individuales, sino en precios medios), una suerte de versión algorítmica de las leyes de la robótica de Isaac Asimov. También se puede optar por combatir los algoritmos con algoritmos. Que el regulador esponsorice algoritmos de consumidores o algoritmos que rompan el equilibro oligopólico del mercado enviando señales mixtas, o incluso, que desarrolle sus propios algoritmos para regular precios y fijarlos a niveles más competitivos.
En fin, un terreno cada vez más complejo, casi de ciencia ficción, pero en el que habrá que entrar para no caer en el dominio de los algoritmos. Continuando con el paralelismo, el propio Asimov ya alertó de las paradojas y escenarios de conflicto interno de sus propias leyes en Yo Robot, entre ellas la más común: la posibilidad de que un robot dañe a un ser humano (quebrando la primera ley) para evitar que dos o más sufran daño.