A. INTRODUZIONE
L’attuale era della digitalizzazione, in cui l’intelligenza artificiale (IA) plasma direttamente l’ecosistema aziendale algoritmico, rende necessarie soluzioni approfondite riguardo all’impatto dell’uso dell’IA nel campo del diritto della concorrenza.
Con la recente accelerazione della digitalizzazione, i sistemi di IA sono diventati una forza determinante dei comportamenti non solo nei settori dei servizi e della produzione, ma tra tutti gli attori di mercato. Fattori come la determinazione dei prezzi tramite algoritmi, le previsioni basate sui dati e l’orientamento degli utenti dimostrano che la concorrenza è modellata non solo dagli esseri umani, ma anche dai modelli algoritmici. Tali modelli divergono dai principi classici del diritto della concorrenza e sollevano dibattiti che ridefiniscono (i) l’intento, (ii) la collusione e (iii) l’abuso di posizione dominante. Infatti, i sistemi autonomi prendono spesso decisioni al di fuori della supervisione umana, diventando così coordinatori invisibili dell’economia.
Questa trasformazione sposta l’analisi della concorrenza da una prospettiva del «comportamento umano» a una prospettiva del «comportamento delle macchine». Le autorità della concorrenza devono ora analizzare non solo l’economia comportamentale, ma anche le dinamiche di interazione algoritmica emergenti dalla trasformazione digitale. La Commissione europea e l’Organizzazione per la Cooperazione e lo Sviluppo Economico (OCSE) osservano che le capacità di apprendimento imprevedibili dei sistemi di IA complicano le valutazioni tradizionali dell’«intento di violare» (OECD, Algorithms and Collusion: Competition Policy in the Digital Age, OECD Policy Roundtable Report, 2017).
B. ANALISI GENERALE
L’IA ha trasformato le azioni considerate violazioni del diritto della concorrenza. Gli algoritmi determinano ora le decisioni sui prezzi, i rapporti con i fornitori e il posizionamento pubblicitario, dando origine a nuove forme di violazione, come la “collusione algoritmica” e la “coordinazione tacita”. In tali casi, anche in assenza di comunicazioni dirette tra imprese, gli algoritmi possono agire in parallelo tramite modelli di apprendimento simili, limitando effettivamente la concorrenza. Istituzioni come la Commissione Europea, la UK Competition and Markets Authority (CMA) e l’OCSE hanno cominciato a riconoscere che il comportamento algoritmico può influenzare i risultati di mercato indipendentemente dall’intento. La questione non è più “Esiste una violazione?”, ma piuttosto “Chi è legalmente responsabile nei limiti delle decisioni algoritmiche?”
Il Digital Markets Act (DMA) e l’Artificial Intelligence Act (AI Act) dell’Unione Europea sono tra i primi regolamenti a stabilire un quadro sistematico per questa complessa relazione. Il DMA mira a controllare il potere algoritmico imponendo obblighi come la condivisione dei dati, la trasparenza e il divieto di auto-preferenziazione sulle grandi piattaforme designate come “gatekeeper” (Regulation (EU) 2022/1925 of the European Parliament and of the Council (Digital Markets Act – DMA – https://eur-lex.europa.eu/eli/reg/2022/1925/oj/eng, consultato il 01.10.2025).
L’AI Act introduce requisiti di supervisione ex ante, spiegabilità e auditabilità per i sistemi di IA ad alto rischio (Proposal for a Regulation of the European Parliament and of the Council Laying Down Harmonised Rules on Artificial Intelligence (Artificial Intelligence Act), consultato il 01.10.2025: https://eur-lex.europa.eu/legal-content/EN/TXT/?uri=celex:52021PC0206 ).
Attraverso questi regolamenti, i processi decisionali algoritmici si stanno evolvendo in sistemi non solo etici, ma anche responsabili nel contesto del diritto della concorrenza. Di conseguenza, stiamo assistendo all’emergere di un nuovo regime di responsabilità che consente al diritto di limitare il dominio dei dati sul mercato.
A livello internazionale, la Commissione Europea ha emanato numerose decisioni precedenti che affrontano la trasformazione digitale e il diritto della concorrenza. Uno dei casi più significativi è quello di Google Shopping (European Commission, Case AT.39740 – Google Search (Shopping), Decision of 27 June 2017; consultato il 05.10.2025: https://ec.europa.eu/competition/antitrust/cases/dec_docs/39740/39740_14996_3.pdf), che fornisce un esempio concreto di come il potere algoritmico possa manifestarsi come abuso di posizione dominante.
In questo caso, la Commissione Europea ha multato Google per 2,42 miliardi di euro per auto-preferenziazione, favorendo il proprio servizio di comparazione prezzi rispetto ai concorrenti attraverso algoritmi di ranking. Questo precedente ha stabilito che la dominanza algoritmica nei mercati digitali non può più essere vista come un “vantaggio competitivo naturale”, bensì come un “uso improprio del potere di mercato”.
Parallelamente al quadro internazionale, anche il diritto della concorrenza turco si sta adattando alle nuove forme di violazione derivanti dalla digitalizzazione. La legge turca n. 4054 sulla protezione della concorrenza non include ancora disposizioni specifiche per i sistemi decisionali algoritmici. Tuttavia, le clausole esistenti sulla “limitazione della concorrenza effettiva” e sull’“abuso di posizione dominante” possono affrontare le conseguenze indirette del comportamento algoritmico. Il rapporto 2021 dell’Autorità per la Concorrenza, intitolato Politica della concorrenza nell’economia digitale, ha identificato principi fondamentali sulla determinazione dei prezzi algoritmica, la portabilità dei dati e il comportamento delle piattaforme, aumentando la consapevolezza in questo ambito. Perché la Turchia possa progredire in linea con l’UE, è necessario rafforzare la capacità istituzionale nella trasparenza algoritmica, nell’accesso ai dati e nella supervisione dell’IA, e pubblicare linee guida che affrontino specificamente le violazioni del diritto della concorrenza basate sull’IA.
C. DECISIONI DELLA COMMISSIONE EUROPEA E ABUSO DI POSIZIONE DOMINANTE
Il concetto di abuso di posizione dominante si riferisce a situazioni in cui un’impresa con considerevole potere economico agisce indipendentemente dalle condizioni di mercato, determinando unilateralmente la dinamica di domanda e offerta e mantenendo tale comportamento nel tempo.
Con l’avanzamento delle tecnologie, tuttavia, questo concetto ha assunto nuovi significati nell’economia digitale. La monopolizzazione dell’accesso ai dati, la manipolazione degli algoritmi di posizionamento all’interno delle piattaforme e l’uso incrociato dei dati degli utenti rappresentano ora episodi diversi e senza precedenti, come controparti digitali delle tradizionali violazioni della “concorrenza non basata sul prezzo”.
In un’indagine di grande rilievo, la Commissione Europea ha rilevato che le politiche di trattamento dei dati di Meta (Facebook) conferivano un vantaggio competitivo ingiusto (European Commission, Case AT.40628 – Meta Platforms and Data Combination Practices, Ongoing investigation, 2023; consultato il 05.10.2025: https://eur-lex.europa.eu/legal-content/EN/TXT/PDF/?uri=CELEX:62020TJ0451).
La Commissione ha inoltre sottolineato che tale condotta potrebbe costituire abuso ai sensi dell’articolo 102 del Trattato sul Funzionamento dell’Unione Europea (TFUE), che vieta alle imprese in posizione dominante di sfruttare il proprio potere di mercato.
In aggiunta, il concetto di “coordinazione algoritmica”, che può somigliare a pratiche concertate, viene interpretato come effettivamente lesivo della concorrenza quando produce esiti come la determinazione parallela dei prezzi senza alcuna collusione.
Nel caso Eturas (CJEU, Case C-74/14 – Eturas UAB and Others v. Lietuvos Respublikos konkurencijos taryba, Judgment of 21 January 2016: consultato il 09.10.2025: https://eur-lex.europa.eu/legal-content/EN/TXT/?uri=celex:62014CJ0074), la Corte ha stabilito che una restrizione algoritmica dei prezzi su una piattaforma di viaggi online costituiva una coordinazione indiretta. La decisione ha dimostrato che i sistemi algoritmici possono funzionare come “strumenti di comunicazione”, attribuendo la responsabilità non solo agli sviluppatori del software, ma anche alle imprese che utilizzano tale software.
Il rapporto OCSE del 2017, Algorithms and Collusion, ha analizzato sistematicamente i rischi di coordinamento insiti nei sistemi decisionali algoritmici e ha raccomandato l’adozione di principi di supervisione ex ante e di trasparenza algoritmica.
D. VALUTAZIONE SECONDO IL DIRITTO DELLA CONCORRENZA TURCO
Parallelamente al quadro internazionale, anche il diritto della concorrenza turco si sta adattando alle nuove forme di violazione introdotte dalla digitalizzazione. La legge turca n. 4054 sulla protezione della concorrenza non include ancora disposizioni specifiche per i sistemi decisionali algoritmici. Tuttavia, le clausole esistenti relative alla “limitazione della concorrenza effettiva” e all’“abuso di posizione dominante” possono affrontare le conseguenze indirette del comportamento algoritmico.
Il rapporto 2021 dell’Autorità per la Concorrenza intitolato Politica della concorrenza nell’economia digitale (https://www.rekabet.gov.tr/Dosya/dijital-piyasalar-calisma-metni.pdf, consultato il 09.10.2025) ha individuato principi fondamentali riguardanti la determinazione dei prezzi algoritmica, la portabilità dei dati e il comportamento delle piattaforme, aumentando la consapevolezza in questo ambito. Perché la Turchia possa progredire in linea con l’UE, è necessario rafforzare le capacità istituzionali nella trasparenza algoritmica, nell’accesso ai dati e nella supervisione dell’IA e pubblicare linee guida specifiche per le violazioni del diritto della concorrenza basate sull’IA.
Come evidenziato nelle decisioni dell’Autorità per la Concorrenza turca su Trendyol (Decisione Trendyol n. 21-56/779-388, 30.09.2021; consultato il 12.10.2025: https://www.rekabet.gov.tr/tr/Guncel/dsm-grup-danismanlik-iletisim-ve-satis-t-b3da5d0675adef1193d70050568585c9) e Yemeksepeti (Decisione Yemeksepeti n. 16-20/347-156, 09.06.2016; consultato il 12.10.2025: https://www.rekabet.gov.tr/Karar?kararId=0bd0157a-2b4d-43ce-85a3-2af821bb387b), le politiche delle piattaforme relative al ranking algoritmico e all’uso dei dati possono essere valutate nell’ambito del divieto di “auto-preferenziazione”.
Queste decisioni indicano che la Turchia sta attraversando un processo di allineamento normativo con le regolamentazioni dell’UE. In futuro, ci si aspetta che vengano introdotti obblighi strutturali di trasparenza, inclusa la presentazione dei rapporti di audit algoritmico all’Autorità per la Concorrenza, tramite futuri emendamenti legislativi per garantire una supervisione efficace dei sistemi algoritmici.
E. CONCLUSIONE
È indiscutibile che la trasformazione digitale abbia introdotto non solo nuove forme di violazione, ma anche nuove categorie di responsabilità, rimodellando il diritto della concorrenza. La definizione di “attore economico” non è più limitata agli esseri umani, poiché i sistemi decisionali autonomi sono diventati attori da considerare nelle analisi giuridiche.
Di conseguenza, il futuro del diritto della concorrenza deve basarsi sui principi di trasparenza algoritmica, responsabilità e condivisione dei dati. In conformità con le linee guida della Commissione Europea e dell’OCSE, la rilevazione preventiva (ex ante) delle violazioni algoritmiche è essenziale per proteggere la concorrenza secondo il diritto turco nell’era digitale.
Gülşah Güven, LL.M., Partner












