]> gitweb.pimeys.fr Git - today.git/blobdiff - today_server.py
[server] jl8 : BD héros DC dans leur enfance
[today.git] / today_server.py
index 1be4d3f4def164937eefb3daad7366e7c0c7da36..7e31652e9d049afb771de33c3857478d499db901 100755 (executable)
@@ -10,8 +10,6 @@ et répondre à un check.
 
 """
 
-import time, datetime
-import locale
 import re
 import BeautifulSoup
 from lxml import etree
@@ -30,31 +28,8 @@ store_published_file = "lasts_published"
 #: Fichier où est stockée une copie de la liste des derniers IDs *lus*
 store_seen_file = "lasts_sync"
 
-def get_now():
-    """Obtenir la date actuelle sous le bon format"""
-    timestamp = time.time()
-    now = datetime.datetime(*time.localtime(timestamp)[:7])
-    return now
-
-def parse_date(s, french=True):
-    """Essaye d'obtenir une date à partir du string fourni"""
-    s = s.lower()
-    if isinstance(s, unicode):
-        s = s.encode("utf-8")
-    if s.startswith("le "):
-        s = s[3:]
-    # Y U PARKINSON ?
-    s = re.sub(" +", " ", s)
-    # Pour avoir les noms de dates en Français
-    if french:
-        locale.setlocale(locale.LC_ALL, 'fr_FR.UTF-8')
-    for format in ["%d %B %Y"]:
-        try:
-            struct = time.strptime(s, format)
-            return datetime.datetime(*struct[:7])
-        except ValueError:
-            pass
-    raise ValueError("%r : Didn't manage to convert as date, sorry." % (s,))
+#: Afficher du garbage pour débuguer
+DEBUG = False
 
 def last_dtc():
     """Vérifie si il y a des quotes DTC non lues"""
@@ -86,40 +61,6 @@ def last_visiteur():
     nepisodes = len(episodes)
     return nsaisons * 100 + nepisodes
 
-def last_noob_warpzone():
-    p = urllib.urlopen("http://noob-tv.com/agenda01.html")
-    t = p.read()
-    # On parse
-    soup = BeautifulSoup.BeautifulSoup(t)
-    # On récupère tous les évènements
-    garbage = soup.findAll("strong")
-    events = []
-    for o in garbage:
-        l = o.findAll("span", attrs={"class":"Style31"})
-        if l:
-            events.append([o.text[:o.text.index(":")].strip(), l[0].string.lower().strip()]) # la date, l'event
-    # On garde que les "sorties"
-    events = [o for o in events if "sortie" in o[1]]
-    # Fucking HTML
-    events = [[o[0].replace(u"û", u"û").replace(u"é", u"é"), o[1]] for o in events]
-    # Parsing des dates
-    eventss = []
-    for i in range(len(events)):
-        raw_date, event = events[i]
-        try:
-            eventss.append([parse_date(raw_date), event])
-        except ValueError:
-            pass
-    events = eventss
-    del eventss
-    noobs = [ev for ev in events if "noob" in ev[1]]
-    warpzones = [ev for ev in events if "warpzone" in ev[1]]
-    # On prend en considération le dernier évènement qui a eu lieu
-    now = get_now()
-    ######
-    ###### RHÂ, shit, y'a des fuckings trucs du genre "1er" dans les dates… :/
-    return noobs, warpzones
-
 def parse_youtube(username):
     """Récupère les vidéos d'une chaîne Youtube"""
     link = "https://gdata.youtube.com/feeds/api/users/%s/uploads?start-index=1&max-results=50" % (username,)
@@ -143,9 +84,72 @@ def parse_youtube(username):
     titles = [e.xpath(".//default:title", namespaces=ns)[0].text for e in entries]
     return titles
 
+def get_season_episode(title):
+    """Récupère les numéros de la saison et de l'épisode. Crash si ne trouve pas."""
+    ep = int(re.findall("ep([0-9]*)", title)[0])
+    saison = int(re.findall("s([0-9]*)", title)[0])
+    return saison, ep
+
+def last_noob_warpzone():
+    global last_nw
+    # GRUIK
+    if "last_nw" in globals().keys():
+        return last_nw
+    titles = parse_youtube("Funglisoft")
+    noobs = [t.lower().strip() for t in titles if t.lower().strip().startswith("noob")]
+    warpzones = [t.lower().strip() for t in titles if t.lower().strip().startswith("warpzone project")]
+    lasts = []
+    for serie in [noobs, warpzones]:
+        # Les titres sont dans l'ordre antichronologique, on s'arrête donc au premier qu'on comprend
+        for titre in serie:
+            if "noob le film" in titre or "making of" in titre:
+                continue
+            try:
+                if DEBUG:
+                    print titre
+                saison, ep = get_season_episode(titre)
+            except ValueError:
+                pass
+            lasts.append([saison, ep])
+            del saison, ep
+            break
+    last_noob = lasts[0][0]*100 + lasts[0][1]
+    last_warp = lasts[1][0]*100 + lasts[1][1]
+    last_nw = [last_noob, last_warp]
+    return last_nw
+
+def last_noob():
+    return last_noob_warpzone()[0]
+def last_warpzone():
+    return last_noob_warpzone()[1]
+
+def last_hugo():
+    titles = parse_youtube("HugoToutSeul")
+    return len(titles)
+
+def last_norman():
+    titles = parse_youtube("NormanFaitDesVideos")
+    return len(titles)
+
+def last_cyprien():
+    titles = parse_youtube("MonsieurDream")
+    return len(titles)
+
+def last_grenier():
+    titles = parse_youtube("joueurdugrenier")
+    return len(titles)
+
+def last_jl8():
+    rss = urllib.urlopen("http://limbero.org/jl8/rss/")
+    t = rss.read()
+    x = etree.fromstring(t)
+    links = x.xpath("//link")
+    maxnum = links[1].text.split("/")[-1]
+    maxnum = int(maxnum)
+    return maxnum
 
 def get_file():
-    """Récupère la liste des derniers ids de chaque truc, stockée dans le fichiers."""
+    """Récupère la liste des derniers ids de chaque truc, stockée dans le fichier."""
     f = open(store_published_file)
     news = json.load(f)
     f.close()
@@ -162,6 +166,13 @@ FETCHS = {
           "dtc" : last_dtc,
           "xantah" : last_xantah,
           "visiteur" : last_visiteur,
+          "noob" : last_noob,
+          "warpzone" : last_warpzone,
+          "hugo" : last_hugo,
+          "norman" : last_norman,
+          "cyprien" : last_cyprien,
+          "grenier" : last_grenier,
+          "dc" : last_jl8,
          }
 
 def fetch_all():
@@ -194,6 +205,8 @@ def sync():
     print json.dumps(on_server)
 
 if __name__ == "__main__":
+    if "--debug" in sys.argv or "--verbose" in sys.argv:
+        DEBUG = True
     if sys.argv[1] == "check":
         news = fetch_all()
         olds = get_file()