in

Copilot fonctionne si bien car il vole le code open source et supprime le crédit


Le Software Freedom Conservancy (SFC), une communauté à but non lucratif de défenseurs de l’open source, a annoncé aujourd’hui son retrait de GitHub dans un article de blog cinglant exhortant les membres et les sympathisants à réprimander la plate-forme une fois pour toutes.

À l’avant: Le problème du SFC avec GitHub découle des accusations selon lesquelles Microsoft et OpenAI ont formé un système d’IA appelé Copilot sur des données publiées sous une licence open source.

Le code open-source n’est pas comme une boîte de dons où vous pouvez simplement prendre ce que vous voulez et l’utiliser comme bon vous semble.

Salutations, humanoïdes

Abonnez-vous à notre newsletter maintenant pour un récapitulatif hebdomadaire de nos histoires préférées sur l’IA dans votre boîte de réception.

C’est plutôt de la photographie. Ce n’est pas parce qu’un photographe ne vous facture pas l’utilisation d’une de ses images que vous êtes toujours éthiquement et légalement tenu de donner le crédit qui lui revient.

Selon un article de blog sur le site SFC, Copilot ne fait pas cela lorsqu’il s’agit d’utiliser les extraits de code d’autres personnes :

Cela rappelle des problèmes de longue date avec GitHub et la raison principale pour laquelle nous devons ensemble abandonner GitHub. Nous avons vu avec Copilot, avec le service d’hébergement principal de GitHub, et dans presque tous les domaines d’activité, le comportement de GitHub est nettement pire que celui de ses pairs. Nous ne pensons pas qu’Amazon, Atlassian, GitLab ou tout autre hébergeur à but lucratif soient des acteurs parfaits. Cependant, une comparaison relative du comportement de GitHub avec ceux de ses pairs montre que le comportement de GitHub est bien pire.

Arrière plan: GitHub est le référentiel de facto pour le code open source dans le monde. C’est comme une combinaison de YouTube, Twitter et Reddit, mais pour les programmeurs et les codes qu’ils produisent.

Bien sûr, il y a d’autres options. Mais passer d’un écosystème de référentiel de code à un autre n’est pas la même chose que d’échanger Instagram contre TikTok.

Microsoft a acquis GitHub en 2018 pour plus de sept milliards de dollars.

Depuis lors, Microsoft a tiré parti de sa position de principal bienfaiteur d’OpenAI dans une entreprise conjointe pour créer Copilot.

Et la seule façon d’accéder à Copilot est via une invitation spéciale de Microsoft ou un abonnement payant.

Le SFC et d’autres défenseurs de l’open source sont contrariés parce que Microsoft et OpenAI monétisent essentiellement le code d’autres personnes et privent ceux qui utilisent ce code de la possibilité de donner un crédit approprié.

En d’autres termes : Microsoft prend le travail des gens, en retire le crédit et le vend à d’autres via des algorithmes.

Une solution: Tuez le copilote. Alternativement, Microsoft et OpenAI pourraient construire une machine à voyager dans le temps, remonter dans le temps et étiqueter chaque point de données dans la base de données de Copilot afin qu’un deuxième modèle puisse être construit qui appliquerait le crédit approprié à chaque sortie.

Mais il est toujours plus facile d’exploiter l’environnement réglementaire du Far West et de profiter des gens que de se soucier de l’éthique des produits et services que vous proposez.

Le point de vue de Neural : En ce qui concerne les exemples solides d’IA qui facilitent la vie humaine, le copilote de GitHub est en tête de liste. Il prend certaines des choses fastidieuses qui peuvent prendre des heures de travail aux développeurs et les rend aussi simples que d’appuyer sur un bouton ou de taper quelques lignes de texte.

Et il y a un peu de précédent ici. GPT-3 et Dall-E utilisent des bases de données de médias générés par l’homme pour générer de nouvelles sorties.

Mais il y a une différence essentielle entre ces générateurs et Copilot. Dessiner un canard dans le style de Monet ou demander à GPT-3 de vous raconter l’histoire d’un chien heureux sont une chose.

Régurgiter des extraits de code ligne par ligne à partir de fichiers dans une base de données ne code pas dans le style de quelqu’un d’autre, c’est utiliser le code de quelqu’un d’autre.

C’est probablement un peu plus nuancé que cela. Il y a, bien sûr, parfois plus d’une façon de résoudre un problème de codage. Et le codage est souvent autant un art qu’une science.

Mais ce n’est pas parce que vous pouvez prendre une photo du soleil couchant avec votre iPhone que vous pouvez voler la photo du coucher de soleil de quelqu’un d’autre, l’appeler la vôtre et la vendre à d’autres personnes.

À la fin de la journée, cela n’a pas d’importance. Le copilote est un succès. La communauté des développeurs semble l’adorer. Il a obtenu une presse plus positive que n’importe quelle quantité de naysaying est susceptible d’affecter.

Peu importe ce que cela finira par faire à la communauté open source. Qui a besoin de référentiels open source alors que vous pouvez simplement travailler gratuitement pour gagner de l’argent pour Microsoft ?

La meilleure chose est que vous n’avez pas le choix. Il n’y a pas d’opt-in ou out. Microsoft et OpenAI ont vos données et rien ne les empêche d’en faire ce qu’ils veulent. La résistance est futile.

What do you think?

8.8k Points
Upvote Downvote

Father of Technoblade, YouTube Minecraft Star, Says His Son Has Died

Biden donne à Steve Jobs d’Apple un incroyable prix posthume