Google l’a répété une fois de plus : il contenuto automatico degli algoritmi di tipo GPT-3 è considerato come lo spam e non è punibile per il motore di ricerca. Tout est ensuite certeement affare de sfumature…
John Mueller (Google) l’a indiqué (à nouveau, car ce n’est pas une nouveauté) lors d’un récent hangout avec des webmasters : le contenu généré automatiquement grâce à l’intelligence artificielle et des outils et come GPT-3 assimila, est considéré comme du spam et va à l’encontre de ses raccomandazioni per i webmaster. Il est donc potentiellement passible de pénalités de la part du moteur de recherche.
Une page dédié à ce contenu généré automatiquement est d’ailleurs disponible dans ces recommandations. Voci ce qu’elle dit :
Le contenu généré automatiquement repose sur la program. Lorsque ce contenu est destiné à manipolare le classi di ricerca plutôt qu’à aiutante gli utilisateurs, Google peut intervenir. Voici quelques exemples (lista non esaustiva):
- Texte qui contient peut-être certes mots clés de recherche mais qui n’a aucun sens pour le lecteur ;
- Texte traduit par unil automatisé sans intervento umano, ni correzione avant pubblicazione ;
- Texte généré par des processus automatisés, tels que les chaînes de Markov ;
- Texte généré à l’aide de tecniche automatizzates de sinonimo ou d’obscurcissement ;
- Testo generale e ritorno dei risultati di ricerca o flusso Atom/RSS ;
- Assemblage o combinazione di contenuti issus de différentes pages Web sans ajout de valeur.
Si vous hébergez un tel contenu sur votre site, empêchez son affichage dans la recherche Google.
Quand sait que Google sait aujourd’hui faire la différence entre un texte rédigé par des humains et un texte conçu par un algoritmoon peut comprendre que le texte créé par intelligence artificielle comporte des risques non négligeables.
Su peut cependant aussi comparer cette situazione à celle du Filatura : si c’est fait avec des méthodes de bourin (massivement et sans intervento humaine), il est évident que c’est condamnable parce que détectable (qui plus est, c’est éthiquement et humainement blâmable). Mais si les algoritmi ne sont que des outils secondaires et qu’une partie humaine est ajoutée à un «premier jet» réalisé par una machine, il ya de fortes chances que cela soit totalement indicectable et non penalisé.
Il reste donc à savoir à quel niveau on se positionne sur l’échelle du bourinage… 🙂
La domanda posta da John Mueller è il luogo di ritrovo per i webmaster. Fonte : Youtube