A Wikipedia új irányelvet vezetett be a nagy nyelvi modellek (LLM-ek) használatáról, amely alapvetően tiltja azok alkalmazását a szócikkek tartalmának megírásában vagy átírásában. A döntést hosszabb vita előzte meg, a közösség ugyan egyetértett abban, hogy szükség van szabályozásra, de a konkrét megvalósításról sokáig nem született konszenzus. Az egyik adminisztrátor, Chaotic Enby szerint a korábbi javaslatok azért buktak el, mert túl általánosak vagy éppen túl részletezőek voltak, így nem tudták egységesen kielégíteni a szerkesztők elvárásait.
Az új szabályozás értelmében a szerzők nem használhatnak LLM-eket szócikkek generálására, azonban két fontos kivételt meghatároztak. Az egyik, hogy a szerkesztők igénybe vehetik az ilyen eszközöket saját szövegeik stilisztikai javítására, hasonlóan egy helyesírás-ellenőrzőhöz, feltéve, hogy az eredményt minden esetben ellenőrzik. Erre azért van szükség, mert a modellek olykor megváltoztathatják a szöveg jelentését, ami nem feltétlenül felel meg a hivatkozott forrásoknak. A másik kivétel a fordítás. Az LLM-ek használhatók első fordítási vázlat készítésére, de csak akkor, ha a szerkesztő mindkét nyelvet kellő szinten ismeri, és képes kiszűrni a hibákat vagy pontatlanságokat.
Fontos megkötés, hogy az új szabályozás kizárólag az angol nyelvű Wikipedia változatra vonatkozik, mivel az egyes nyelvi kiadások saját irányelvekkel rendelkeznek. Például a spanyol Wikipedia már jelenleg is tiltja az LLM-ek használatát új szócikkek létrehozására vagy meglévők bővítésére, kivételek nélkül. Ugyanakkor a mesterséges intelligencia által generált szövegek felismerése továbbra sem tökéletes, így előfordulhat, hogy kevésbé ellenőrzött oldalakon mégis megjelennek ilyen tartalmak, különösen ott, ahol ritkább a moderáció.