#: Fichier où est stockée une copie de la liste des derniers IDs *lus*
store_seen_file = "lasts_sync"
+#: Afficher du garbage pour débuguer
+DEBUG = False
+
def last_dtc():
"""Vérifie si il y a des quotes DTC non lues"""
return dtc.last_inserted()
nepisodes = len(episodes)
return nsaisons * 100 + nepisodes
+def parse_youtube(username):
+ """Récupère les vidéos d'une chaîne Youtube"""
+ link = "https://gdata.youtube.com/feeds/api/users/%s/uploads?start-index=1&max-results=50" % (username,)
+ entries = []
+ while link:
+ p = urllib.urlopen(link)
+ t = p.read()
+ x = etree.fromstring(t)
+ # lxml ne supporte pas les namespaces vides dans les requêtes XPath
+ ns = x.nsmap
+ ns["default"] = ns[None]
+ ns.pop(None)
+ # Il y a potentiellement une suite
+ nextlinks = x.xpath("//default:link[@rel='next']", namespaces=ns)
+ if nextlinks:
+ link = nextlinks[0].attrib["href"]
+ else:
+ link = False
+ localentries = x.xpath("//default:entry", namespaces=ns)
+ entries.extend(localentries)
+ titles = [e.xpath(".//default:title", namespaces=ns)[0].text for e in entries]
+ return titles
+
def get_season_episode(title):
"""Récupère les numéros de la saison et de l'épisode. Crash si ne trouve pas."""
ep = int(re.findall("ep([0-9]*)", title)[0])
for serie in [noobs, warpzones]:
# Les titres sont dans l'ordre antichronologique, on s'arrête donc au premier qu'on comprend
for titre in serie:
+ if "noob le film" in titre or "making of" in titre:
+ continue
try:
+ if DEBUG:
+ print titre
saison, ep = get_season_episode(titre)
except ValueError:
pass
def last_warpzone():
return last_noob_warpzone()[1]
-def parse_youtube(username):
- """Récupère les vidéos d'une chaîne Youtube"""
- link = "https://gdata.youtube.com/feeds/api/users/%s/uploads?start-index=1&max-results=50" % (username,)
- entries = []
- while link:
- p = urllib.urlopen(link)
- t = p.read()
- x = etree.fromstring(t)
- # lxml ne supporte pas les namespaces vides dans les requêtes XPath
- ns = x.nsmap
- ns["default"] = ns[None]
- ns.pop(None)
- # Il y a potentiellement une suite
- nextlinks = x.xpath("//default:link[@rel='next']", namespaces=ns)
- if nextlinks:
- link = nextlinks[0].attrib["href"]
- else:
- link = False
- localentries = x.xpath("//default:entry", namespaces=ns)
- entries.extend(localentries)
- titles = [e.xpath(".//default:title", namespaces=ns)[0].text for e in entries]
- return titles
+def last_hugo():
+ titles = parse_youtube("HugoToutSeul")
+ return len(titles)
+
+def last_norman():
+ titles = parse_youtube("NormanFaitDesVideos")
+ return len(titles)
+
+def last_cyprien():
+ titles = parse_youtube("MonsieurDream")
+ return len(titles)
+
+def last_grenier():
+ titles = parse_youtube("joueurdugrenier")
+ return len(titles)
def get_file():
- """Récupère la liste des derniers ids de chaque truc, stockée dans le fichiers."""
+ """Récupère la liste des derniers ids de chaque truc, stockée dans le fichier."""
f = open(store_published_file)
news = json.load(f)
f.close()
"visiteur" : last_visiteur,
"noob" : last_noob,
"warpzone" : last_warpzone,
+ "hugo" : last_hugo,
+ "norman" : last_norman,
+ "cyprien" : last_cyprien,
+ "grenier" : last_grenier,
}
def fetch_all():
print json.dumps(on_server)
if __name__ == "__main__":
+ if "--debug" in sys.argv or "--verbose" in sys.argv:
+ DEBUG = True
if sys.argv[1] == "check":
news = fetch_all()
olds = get_file()