Hello,
@voljega : Alors c'est super bizarre, parce que j'ai fait exactement la même chose que toi (inversion des lignes 10 et 11)
j'ai même créé un répertoire en local avec quelques roms dedans que j'ai appelé "Atari – Lynx".
Je lui ai collé quelques roms (bon de Game gear parce que j'avais que ça sous la main ^^)
Et aucun problème, c'est passé tout seul...
Pourrais tu me donner la fin de ton fichier log (les 2 / 3 dernières lignes) ou même le fichier complet que je vois ou ça plante histoire que je comprenne pourquoi.
(même si tu peux le passer en verbose = 2 pour que le fichier soit plus complet)
Infos bonux, tes Roms sont en quels extension ? (Pour info, les fichiers *.txt *.dv *.fs *.xor *.drv *.dat *.nv sont ignorés)
@Supernature2k (et @Acris) : Je suppose que tu parles des roms sur screenscraper qui sont référencé en .rar (pas les tiennes
) du coup ma recherche par nom de fichier qui transforme en .zip est pas top 
Je n'ai pas d'idée pour corriger le problème (hormis rajouter encore des requêtes API (en .rar, .7z, etc...) qui vont alourdir le soft et le site).
Je vais plutôt essayer de voir du coté de MarbleMad, s'il peut modifier le fonctionnement de l'API pour qu'il fasse une recherche du nom de fichier "sans extension".
C'est pas gagné (Marble est pas mal occupé en ce moment et c'est l'été ^^)
Donc à voir
je vous tiens au courant 
@lestatrico : Hésite pas à me tenir au courant
(Parce que je n'ai pas réussi à obtenir de vrai expiration de délais je n'ai pu que en simuler en faisant une pause après le dl du fichier XML et en le supprimant ^^)
Question subsidiaire aux utilisateurs :
En fait, ça m'ennuis un peu (déformation professionnelle) de ne pas avoir de retour statistique (peu de retour malgré 1,392 téléchargements :S Merci à vous d’ailleurs ^^)
A votre avis, cela serait il gênant si en fin de scrape, j'alimente une base de donnée MySQL avec le résultat du scrape ?
Ce que je compte y stocker :
- Version d'UXS
- Nom du Profil utilisé
- Système scrapé
- Annulé/en Erreur(TimeOut)/finit normalement
- Nombre de fichier scrapé
- Nombre de fichier trouvé
- Nombre d'image downloadée.
- Potentiellement IP Publique du PC qui Scrape pour identifier le nombre réel d'utilisateur (bon c'est le seul élément à peu prêt fiable que j'ai trouvé pour identifier ce nombre. Même si avec une IP Dynamique ce ne sera pas si précis que ça. Et je n'ai pas envie de forcer la création d'un compte.)
L'idée serait après de faire une petite page Web pour afficher le résultat statistique en libre accès.
De toutes façon, le code sera toujours dispos sur Github et vous pourrez voir en live le contenue des requêtes (d'ailleurs par contre, il faut que je crypte le MDP de la base MySQL :S pour ne pas que ça apparaisse sur github je ne sais pas comment on fait ça ^^)
L'idée, c'est vraiment juste d'avoir un retour assez précis sans que ça deviennent un soft considéré comme une vérole qui vous pompe votre vie privé ^^ (Je m'appel pas google non plus ^^)
Du coup, je vous pose la question à vous utilisateur (bon on peut pas faire de sondage sur ce forum ^^):
Que pensez vous d'avoir des données statistique sur l'utilisation de UXS :
- C'est inadmissible et ma vie privé alors !! (je n'ai pas envie que tout le monde sache que je n'ai que 2 jeux sur gameboy)
- Je m'en fout royal fait ce que tu veux
- C'est une excellente idée et ça m’intéresse aussi
- Attention sa pourrait être mal vu...
- La réponse 5
Merci à vous qui contribuez à faire avancer le soft 