]> gitweb.pimeys.fr Git - today.git/commitdiff
Merge branch 'master' of /git/today
authorVincent Le Gallic <legallic@crans.org>
Wed, 10 Apr 2013 04:28:50 +0000 (06:28 +0200)
committerVincent Le Gallic <legallic@crans.org>
Wed, 10 Apr 2013 04:28:50 +0000 (06:28 +0200)
today_server.py

index 3c7939380a6cf0cc28e61e616b0fe83a29c9e408..120bd510d274915df19e60a832a8775753ba5bb5 100755 (executable)
@@ -58,6 +58,29 @@ def last_visiteur():
     nepisodes = len(episodes)
     return nsaisons * 100 + nepisodes
 
+def parse_youtube(username):
+    """Récupère les vidéos d'une chaîne Youtube"""
+    link = "https://gdata.youtube.com/feeds/api/users/%s/uploads?start-index=1&max-results=50" % (username,)
+    entries = []
+    while link:
+        p = urllib.urlopen(link)
+        t = p.read()
+        x = etree.fromstring(t)
+        # lxml ne supporte pas les namespaces vides dans les requêtes XPath
+        ns = x.nsmap
+        ns["default"] = ns[None]
+        ns.pop(None)
+        # Il y a potentiellement une suite
+        nextlinks = x.xpath("//default:link[@rel='next']", namespaces=ns)
+        if nextlinks:
+            link = nextlinks[0].attrib["href"]
+        else:
+            link = False
+        localentries = x.xpath("//default:entry", namespaces=ns)
+        entries.extend(localentries)
+    titles = [e.xpath(".//default:title", namespaces=ns)[0].text for e in entries]
+    return titles
+
 def get_season_episode(title):
     """Récupère les numéros de la saison et de l'épisode. Crash si ne trouve pas."""
     ep = int(re.findall("ep([0-9]*)", title)[0])
@@ -93,32 +116,25 @@ def last_noob():
 def last_warpzone():
     return last_noob_warpzone()[1]
 
-def parse_youtube(username):
-    """Récupère les vidéos d'une chaîne Youtube"""
-    link = "https://gdata.youtube.com/feeds/api/users/%s/uploads?start-index=1&max-results=50" % (username,)
-    entries = []
-    while link:
-        p = urllib.urlopen(link)
-        t = p.read()
-        x = etree.fromstring(t)
-        # lxml ne supporte pas les namespaces vides dans les requêtes XPath
-        ns = x.nsmap
-        ns["default"] = ns[None]
-        ns.pop(None)
-        # Il y a potentiellement une suite
-        nextlinks = x.xpath("//default:link[@rel='next']", namespaces=ns)
-        if nextlinks:
-            link = nextlinks[0].attrib["href"]
-        else:
-            link = False
-        localentries = x.xpath("//default:entry", namespaces=ns)
-        entries.extend(localentries)
-    titles = [e.xpath(".//default:title", namespaces=ns)[0].text for e in entries]
-    return titles
+def last_hugo():
+    titles = parse_youtube("HugoToutSeul")
+    return len(titles)
+
+def last_norman():
+    titles = parse_youtube("NormanFaitDesVideos")
+    return len(titles)
+
+def last_cyprien():
+    titles = parse_youtube("MonsieurDream")
+    return len(titles)
+
+def last_grenier():
+    titles = parse_youtube("joueurdugrenier")
+    return len(titles)
 
 
 def get_file():
-    """Récupère la liste des derniers ids de chaque truc, stockée dans le fichiers."""
+    """Récupère la liste des derniers ids de chaque truc, stockée dans le fichier."""
     f = open(store_published_file)
     news = json.load(f)
     f.close()
@@ -137,6 +153,10 @@ FETCHS = {
           "visiteur" : last_visiteur,
           "noob" : last_noob,
           "warpzone" : last_warpzone,
+          "hugo" : last_hugo,
+          "norman" : last_norman,
+          "cyprien" : last_cyprien,
+          "grenier" : last_grenier,
          }
 
 def fetch_all():