23/04/2024
La société de suivi de crypto Elliptic utilise désormais l'IA pour attraper les pirates

La société de suivi de crypto Elliptic utilise désormais l’IA pour attraper les pirates



La société d’analyse cryptographique Elliptic intègre l’intelligence artificielle dans sa boîte à outils pour suivre les transactions de la blockchain et gérer la détection des risques.

En utilisant le chatbot ChatGPT d’OpenAI, la société affirme qu’elle sera en mesure d’organiser les données plus rapidement et en plus grande quantité. Cependant, il a mis en place certaines limitations d’utilisation et n’utilise pas non plus les plug-ins ChatGPT.

« En tant qu’organisation à laquelle les plus grandes banques, régulateurs, institutions financières, gouvernements et forces de l’ordre du monde font confiance, il est important de protéger nos renseignements et nos données », a déclaré un porte-parole d’Elliptic. Décrypter. « C’est pourquoi nous n’utilisons pas ChatGPT pour créer ou modifier des données, rechercher des renseignements ou surveiller des transactions. »

Lancé en 2013, Elliptic fournit aux institutions et aux forces de l’ordre des recherches analytiques sur la blockchain pour suivre les cybercriminels et la conformité réglementaire liée à la crypto-monnaie. En mai, par exemple, Elliptic a signalé que plusieurs entreprises chinoises vendaient les produits chimiques pour fabriquer des crypto-monnaies acceptées par le fentanyl, y compris Bitcoin. La sénatrice américaine Elizabeth Warren a utilisé le rapport pour demander à nouveau une réglementation plus stricte sur les crypto-monnaies.

Elliptic utilisera ChatGPT pour compléter ses processus humains de collecte de données et d’organisation afin d’augmenter les efforts de son équipe, ce qui, selon lui, lui permettra de doubler la précision et l’évolutivité. Dans le même temps, les grands modèles de langage (LLM) organisent les données.

« Nos employés tirent parti de ChatGPT pour améliorer nos ensembles de données et nos informations », a déclaré le porte-parole. « Nous suivons et adhérons à une politique d’utilisation de l’IA et avons un cadre de validation de modèle robuste. »

Parce qu’Elliptic n’utilise pas ChatGPT pour générer des informations, la société a déclaré qu’elle n’était pas préoccupée par les « hallucinations » de l’IA ou les fausses informations. Les hallucinations de l’IA font référence à des cas dans lesquels une IA génère des résultats inattendus ou faux non étayés par des données du monde réel.

Les chatbots IA comme ChatGPT ont fait l’objet d’une surveillance accrue pour avoir fourni de manière convaincante des informations falsifiées sur des personnes, des lieux et des événements. OpenAI a intensifié ses efforts en utilisant les mathématiques pour traiter ces soi-disant hallucinations dans la formation de ses modèles, la qualifiant d’étape critique vers la construction d’une intelligence générale artificielle (AGI) alignée.

« Nos clients viennent nous voir pour connaître exactement leur exposition au risque », a déclaré le directeur technique d’Elliptic, Jackson Hull, dans un communiqué. « L’intégration de ChatGPT nous permet d’augmenter notre intelligence, donnant à nos clients une vue sur les risques qu’ils ne peuvent obtenir nulle part ailleurs. »

Restez au courant des actualités cryptographiques, recevez des mises à jour quotidiennes dans votre boîte de réception.



Source

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *