You signed in with another tab or window. Reload to refresh your session.You signed out in another tab or window. Reload to refresh your session.You switched accounts on another tab or window. Reload to refresh your session.Dismiss alert
{{ message }}
This repository has been archived by the owner on May 19, 2022. It is now read-only.
Is your feature request related to a problem? Please describe.
Je souhaite ignorer un doublon manuellement dans une source CSV sans vraiment le supprimer.
Describe the solution you'd like
Mettre un # dans le fichier CSV comme un commentaire.
Additional context
Binance double certaines transactions (aléatoirement) dans les exports CSV.
The text was updated successfully, but these errors were encountered:
A mon avis ce n'est pas à l'outil de gérer ça, ou alors dans le cas précis de binance il faudrait trouver un moyen d'identifier et ignorer automatiquement les TX dupliquées.
Pour résoudre ton besoin, tu peux garder le fichier original et commenter les lignes que tu ne souhaites pas inclure (prenont l'exemple du caractère #) et générer le fichier utilisé par l'outil de la manière suivante :
est-ce que les lignes doublons du CSV sont 100% identiques ?
si oui et si c'est un bug de l'export CSV de Binance, on peut ajouter une detection de dupe par ligne avant le parsing CSV. Qu'en penses tu BapRx ?
Oui c'est a mon avis la meilleure chose à faire, ça évite de devoir vérifier le csv a la main. J'ai eu également le cas des doublons binance de mon côté.
Je ne suis pas certain que ça soit la meilleure chose à faire car j'ai vu plusieurs fois de réels faux-doublons : même heure et même montant mais réelles transactions (dans le cas de trades, commission history)
Is your feature request related to a problem? Please describe.
Je souhaite ignorer un doublon manuellement dans une source CSV sans vraiment le supprimer.
Describe the solution you'd like
Mettre un # dans le fichier CSV comme un commentaire.
Additional context
Binance double certaines transactions (aléatoirement) dans les exports CSV.
The text was updated successfully, but these errors were encountered: