Les experts et chercheurs japonais en intelligence artificielle appellent à la prudence quant à l’utilisation d’informations obtenues illégalement pour former l’IA, ce qui, selon eux, pourrait entraîner « un grand nombre de cas de violation du droit d’auteur », des pertes d’emplois, de fausses informations et la fuite d’informations confidentielles.
Le 26 mai, un projet du conseil stratégique du gouvernement sur l’IA a été soumis, soulevant des inquiétudes quant au manque de réglementation autour de l’IA, y compris les risques que la technologie pose en matière de violation du droit d’auteur.
Selon le législateur japonais Takashi Kii le 24 avril, il y a actuellement aucune loi interdisant à l’intelligence artificielle d’utiliser du matériel protégé par le droit d’auteur et des informations acquises illégalement pour la formation.
« Tout d’abord, lorsque j’ai vérifié le système juridique (loi sur le droit d’auteur) au Japon concernant l’analyse des informations par l’IA, j’ai constaté qu’au Japon, que ce soit à des fins non lucratives, à des fins lucratives ou pour des actes autres que la duplication, il est obtenu à partir de sites illégaux », a déclaré Takashi.
« Le ministre Nagaoka a clairement déclaré qu’il est possible d’utiliser le travail pour l’analyse de l’information quelle que soit la méthode, quel que soit le contenu », a ajouté Takashi, faisant référence à Keiko Nagaoka, ministre de l’Éducation, de la Culture, des Sports, de la Science et de la Technologie.
Takashi a également posé des questions sur les directives d’utilisation des chatbots d’IA tels que ChatGPT dans les écoles, ce qui pose également son propre ensemble de dilemmes, étant donné que la technologie devrait être adopté par le système éducatif dès mars 2024.
« Le ministre Nagaoka a répondu ‘dès que possible’, il n’y avait pas de réponse précise concernant le calendrier », a-t-il déclaré.
S’adressant à Cointelegraph, Andrew Petale, avocat et avocat en marques chez Y Intellectual Property, basé à Melbourne, a déclaré que le sujet relevait toujours d’une « zone grise ».
« Une grande partie de ce que les gens ne comprennent pas réellement, c’est que le droit d’auteur protège la façon dont les idées sont exprimées, il ne protège pas réellement les idées elles-mêmes. Ainsi, dans le cas de l’IA, vous avez un être humain qui saisit des informations dans un programme », a-t-il déclaré, ajoutant :
« Ainsi, les contributions proviennent de personnes, mais l’expression réelle provient de l’IA elle-même. Une fois que les informations ont été saisies, elles ne sont essentiellement plus entre les mains de la personne, car elles sont générées ou pompées par l’IA. »
« Je suppose que jusqu’à ce que la législation reconnaisse que les machines ou les robots sont capables de paternité, c’est vraiment une sorte de zone grise et un peu dans le no man’s land. »
En relation: Le CSO de Microsoft affirme que l’IA aidera les humains à s’épanouir, cosigne quand même la lettre apocalyptique
Petale a ajouté que cela pose de nombreuses questions hypothétiques qui doivent d’abord être résolues par des procédures judiciaires et réglementaires.
«Je suppose que la question est; Les créateurs de l’IA sont-ils responsables de la création de l’outil qui est utilisé pour enfreindre le droit d’auteur, ou est-ce les personnes qui l’utilisent réellement pour enfreindre le droit d’auteur ? », a-t-il déclaré.
Du point de vue des entreprises d’IA, elles affirment généralement que leurs modèles n’enfreignent pas le droit d’auteur, car leurs robots IA transforment le travail original en quelque chose de nouveau, ce qui est qualifié d’utilisation équitable en vertu des lois américaines, où la plupart des actions démarrent.
Magazine: « Responsabilité morale » — La blockchain peut-elle vraiment améliorer la confiance dans l’IA ?