]> gitweb.pimeys.fr Git - today.git/blobdiff - today_server.py
Modularisation++ : module comics pour xkcd et jl8 (young DC)
[today.git] / today_server.py
index 1be4d3f4def164937eefb3daad7366e7c0c7da36..0c5016048f04f009ed06e71982598bbd0a1dd543 100755 (executable)
@@ -10,61 +10,19 @@ et répondre à un check.
 
 """
 
-import time, datetime
-import locale
 import re
-import BeautifulSoup
 from lxml import etree
 import os
 import sys
 import urllib
 import json
-import traceback
 os.chdir('/home/vincent/scripts/today/')
-sys.path.append("/home/vincent/scripts/dtc/")
-import dtc
 
-#: Fichier où sont stockés les derniers IDs des trucs
-store_published_file = "lasts_published"
+#: Config serveur
+import serverconfig
 
-#: Fichier où est stockée une copie de la liste des derniers IDs *lus*
-store_seen_file = "lasts_sync"
-
-def get_now():
-    """Obtenir la date actuelle sous le bon format"""
-    timestamp = time.time()
-    now = datetime.datetime(*time.localtime(timestamp)[:7])
-    return now
-
-def parse_date(s, french=True):
-    """Essaye d'obtenir une date à partir du string fourni"""
-    s = s.lower()
-    if isinstance(s, unicode):
-        s = s.encode("utf-8")
-    if s.startswith("le "):
-        s = s[3:]
-    # Y U PARKINSON ?
-    s = re.sub(" +", " ", s)
-    # Pour avoir les noms de dates en Français
-    if french:
-        locale.setlocale(locale.LC_ALL, 'fr_FR.UTF-8')
-    for format in ["%d %B %Y"]:
-        try:
-            struct = time.strptime(s, format)
-            return datetime.datetime(*struct[:7])
-        except ValueError:
-            pass
-    raise ValueError("%r : Didn't manage to convert as date, sorry." % (s,))
-
-def last_dtc():
-    """Vérifie si il y a des quotes DTC non lues"""
-    return dtc.last_inserted()
-
-def last_xkcd():
-    p = urllib.urlopen("http://xkcd.com")
-    t = p.read()
-    current_id = int(re.findall("Permanent link to this comic: http://xkcd.com/(.*?)/", t)[0])
-    return current_id
+#: Récupération de toutes les nouveautés
+import gather
 
 def last_xantah():
     p = urllib.urlopen("http://www.adoprixtoxis.com/lite/download/xantah_downloads.php")
@@ -73,95 +31,21 @@ def last_xantah():
     ids = [int(i) for i in ids]
     return max(ids)
 
-def last_visiteur():
-    p = urllib.urlopen("http://www.levisiteurdufutur.com/episodes.html")
-    t = p.read()
-    # On parse
-    soup = BeautifulSoup.BeautifulSoup(t)
-    # On récupère les différentes saisons
-    saisons = soup.findAll("div", attrs={"id" : "episodes_list"})
-    nsaisons = len(saisons)
-    # La saison en cours est la première dans la liste
-    episodes = saisons[0].findAll("div", attrs={"class" : "thumbCaption"})
-    nepisodes = len(episodes)
-    return nsaisons * 100 + nepisodes
-
-def last_noob_warpzone():
-    p = urllib.urlopen("http://noob-tv.com/agenda01.html")
-    t = p.read()
-    # On parse
-    soup = BeautifulSoup.BeautifulSoup(t)
-    # On récupère tous les évènements
-    garbage = soup.findAll("strong")
-    events = []
-    for o in garbage:
-        l = o.findAll("span", attrs={"class":"Style31"})
-        if l:
-            events.append([o.text[:o.text.index(":")].strip(), l[0].string.lower().strip()]) # la date, l'event
-    # On garde que les "sorties"
-    events = [o for o in events if "sortie" in o[1]]
-    # Fucking HTML
-    events = [[o[0].replace(u"û", u"û").replace(u"é", u"é"), o[1]] for o in events]
-    # Parsing des dates
-    eventss = []
-    for i in range(len(events)):
-        raw_date, event = events[i]
-        try:
-            eventss.append([parse_date(raw_date), event])
-        except ValueError:
-            pass
-    events = eventss
-    del eventss
-    noobs = [ev for ev in events if "noob" in ev[1]]
-    warpzones = [ev for ev in events if "warpzone" in ev[1]]
-    # On prend en considération le dernier évènement qui a eu lieu
-    now = get_now()
-    ######
-    ###### RHÂ, shit, y'a des fuckings trucs du genre "1er" dans les dates… :/
-    return noobs, warpzones
-
-def parse_youtube(username):
-    """Récupère les vidéos d'une chaîne Youtube"""
-    link = "https://gdata.youtube.com/feeds/api/users/%s/uploads?start-index=1&max-results=50" % (username,)
-    entries = []
-    while link:
-        p = urllib.urlopen(link)
-        t = p.read()
-        x = etree.fromstring(t)
-        # lxml ne supporte pas les namespaces vides dans les requêtes XPath
-        ns = x.nsmap
-        ns["default"] = ns[None]
-        ns.pop(None)
-        # Il y a potentiellement une suite
-        nextlinks = x.xpath("//default:link[@rel='next']", namespaces=ns)
-        if nextlinks:
-            link = nextlinks[0].attrib["href"]
-        else:
-            link = False
-        localentries = x.xpath("//default:entry", namespaces=ns)
-        entries.extend(localentries)
-    titles = [e.xpath(".//default:title", namespaces=ns)[0].text for e in entries]
-    return titles
-
-
 def get_file():
-    """Récupère la liste des derniers ids de chaque truc, stockée dans le fichiers."""
-    f = open(store_published_file)
+    """Récupère la liste des derniers ids de chaque truc, stockée dans le fichier."""
+    f = open(serverconfig.store_published_file)
     news = json.load(f)
     f.close()
     return news
 
 def update_file(news):
     """Met à jour la liste des derniers ids dans le fichier."""
-    f = open(store_published_file, 'w')
+    f = open(serverconfig.store_published_file, 'w')
     json.dump(news, f)
     f.close()
 
 FETCHS = {
-          "xkcd" : last_xkcd,
-          "dtc" : last_dtc,
           "xantah" : last_xantah,
-          "visiteur" : last_visiteur,
          }
 
 def fetch_all():
@@ -171,8 +55,8 @@ def fetch_all():
         try:
             news[k] = f()
         except Exception as e:
-            print "Erreur à la récupération de %s :" % k
-            traceback.print_exc()
+            raise
+    news.update(gather.gather())
     return news
 
 def sync():
@@ -181,23 +65,27 @@ def sync():
     t = sys.stdin.read()
     on_client = json.loads(t)
     # On récupère où en est le serveur dans le fichier idoine
-    if os.path.isfile(store_seen_file):
-        on_server = json.load(open(store_seen_file))
+    if os.path.isfile(serverconfig.store_seen_file):
+        on_server = json.load(open(serverconfig.store_seen_file))
     else:
         on_server = {}
     # On garde le maximum
     for k in set(on_client.keys() + on_server.keys()):
         on_server[k] = max(on_client.get(k, 0), on_server.get(k, 0))
     # On enregistre ce nouveau dico
-    json.dump(on_server, open(store_seen_file, "w"))
+    json.dump(on_server, open(serverconfig.store_seen_file, "w"))
     # On envoie au client ce nouveau dico
     print json.dumps(on_server)
 
 if __name__ == "__main__":
+    DEBUG = ("--debug" in sys.argv) or ("--verbose" in sys.argv) or serverconfig.DEBUG
     if sys.argv[1] == "check":
         news = fetch_all()
-        olds = get_file()
-        olds.update(news)
+        if "--init" in sys.argv:
+            olds = news
+        else:
+            olds = get_file()
+            olds.update(news)
         update_file(olds)
     elif sys.argv[1] == "whatsup":
         news = get_file()