X-Git-Url: http://gitweb.pimeys.fr/?a=blobdiff_plain;f=today_server.py;h=1727e27d5a19b6ecb164fd0929117851471cf48f;hb=7d72ebdc255f7725e75fa1ca2b77a1e9c0298e23;hp=734246e54775ca73cf4ac8b79a43fd44b06ec5b1;hpb=97918a2407b0ce18f99ef9d6af5d5055062747f6;p=today.git diff --git a/today_server.py b/today_server.py index 734246e..1727e27 100755 --- a/today_server.py +++ b/today_server.py @@ -11,31 +11,18 @@ et répondre à un check. """ import re -import BeautifulSoup from lxml import etree import os import sys import urllib import json -import traceback -import inspect -import pprint os.chdir('/home/vincent/scripts/today/') -sys.path.append("/home/vincent/scripts/dtc/") -import dtc -#: Fichier où sont stockés les derniers IDs des trucs -store_published_file = "lasts_published" +#: Config serveur +import serverconfig -#: Fichier où est stockée une copie de la liste des derniers IDs *lus* -store_seen_file = "lasts_sync" - -#: Afficher du garbage pour débuguer -DEBUG = False - -def last_dtc(): - """Vérifie si il y a des quotes DTC non lues""" - return dtc.last_inserted() +#: Récupération de toutes les nouveautés +import gather def last_xkcd(): p = urllib.urlopen("http://xkcd.com") @@ -50,98 +37,6 @@ def last_xantah(): ids = [int(i) for i in ids] return max(ids) -def last_visiteur(): - p = urllib.urlopen("http://www.levisiteurdufutur.com/episodes.html") - t = p.read() - # On parse - soup = BeautifulSoup.BeautifulSoup(t) - # On récupère les différentes saisons - saisons = soup.findAll("div", attrs={"id" : "episodes_list"}) - nsaisons = len(saisons) - # La saison en cours est la première dans la liste - episodes = saisons[0].findAll("div", attrs={"class" : "thumbCaption"}) - nepisodes = len(episodes) - return nsaisons * 100 + nepisodes - -def parse_youtube(username): - """Récupère les vidéos d'une chaîne Youtube""" - link = "https://gdata.youtube.com/feeds/api/users/%s/uploads?start-index=1&max-results=50" % (username,) - entries = [] - while link: - p = urllib.urlopen(link) - t = p.read() - x = etree.fromstring(t) - # lxml ne supporte pas les namespaces vides dans les requêtes XPath - ns = x.nsmap - ns["default"] = ns[None] - ns.pop(None) - # Il y a potentiellement une suite - nextlinks = x.xpath("//default:link[@rel='next']", namespaces=ns) - if nextlinks: - link = nextlinks[0].attrib["href"] - else: - link = False - localentries = x.xpath("//default:entry", namespaces=ns) - entries.extend(localentries) - titles = [e.xpath(".//default:title", namespaces=ns)[0].text for e in entries] - return titles - -def get_season_episode(title): - """Récupère les numéros de la saison et de l'épisode. Crash si ne trouve pas.""" - ep = int(re.findall("ep([0-9]*)", title)[0]) - saison = int(re.findall("s([0-9]*)", title)[0]) - return saison, ep - -def last_noob_warpzone(): - global last_nw - # GRUIK - if "last_nw" in globals().keys(): - return last_nw - titles = parse_youtube("Funglisoft") - noobs = [t.lower().strip() for t in titles if t.lower().strip().startswith("noob")] - warpzones = [t.lower().strip() for t in titles if t.lower().strip().startswith("warpzone project")] - lasts = [] - for serie in [noobs, warpzones]: - # Les titres sont dans l'ordre antichronologique, on s'arrête donc au premier qu'on comprend - for titre in serie: - if "noob le film" in titre or "making of" in titre or "noob versus rct" == titre: - continue - try: - if DEBUG: - print titre - saison, ep = get_season_episode(titre) - except (ValueError, IndexError) as e: - print "%s sur un season_episode warpzone : %s\n" % (e, titre) - continue - lasts.append([saison, ep]) - del saison, ep - break - last_noob = lasts[0][0]*100 + lasts[0][1] - last_warp = lasts[1][0]*100 + lasts[1][1] - last_nw = [last_noob, last_warp] - return last_nw - -def last_noob(): - return last_noob_warpzone()[0] -def last_warpzone(): - return last_noob_warpzone()[1] - -def last_hugo(): - titles = parse_youtube("HugoToutSeul") - return len(titles) - -def last_norman(): - titles = parse_youtube("NormanFaitDesVideos") - return len(titles) - -def last_cyprien(): - titles = parse_youtube("MonsieurDream") - return len(titles) - -def last_grenier(): - titles = parse_youtube("joueurdugrenier") - return len(titles) - def last_jl8(): rss = urllib.urlopen("http://limbero.org/jl8/rss/") t = rss.read() @@ -153,28 +48,20 @@ def last_jl8(): def get_file(): """Récupère la liste des derniers ids de chaque truc, stockée dans le fichier.""" - f = open(store_published_file) + f = open(serverconfig.store_published_file) news = json.load(f) f.close() return news def update_file(news): """Met à jour la liste des derniers ids dans le fichier.""" - f = open(store_published_file, 'w') + f = open(serverconfig.store_published_file, 'w') json.dump(news, f) f.close() FETCHS = { "xkcd" : last_xkcd, - "dtc" : last_dtc, "xantah" : last_xantah, - "visiteur" : last_visiteur, - "noob" : last_noob, - "warpzone" : last_warpzone, - "hugo" : last_hugo, - "norman" : last_norman, - "cyprien" : last_cyprien, - "grenier" : last_grenier, "dc" : last_jl8, } @@ -185,14 +72,8 @@ def fetch_all(): try: news[k] = f() except Exception as e: - errmsg = "Erreur à la récupération de %s :\n" % k - errmsg += traceback.format_exc() - # On dumpe le contenu local de la mémoire au moment de l'exception - fobj = inspect.trace()[-1][0] - # On fait un peu de ménage - d = {k:v for (k,v) in fobj.f_locals.items() if not k.startswith("_")} - errmsg += "\nContexte : %s\n\n" % (pprint.pformat(d)) - print errmsg + raise + news.update(gather.gather()) return news def sync(): @@ -201,21 +82,20 @@ def sync(): t = sys.stdin.read() on_client = json.loads(t) # On récupère où en est le serveur dans le fichier idoine - if os.path.isfile(store_seen_file): - on_server = json.load(open(store_seen_file)) + if os.path.isfile(serverconfig.store_seen_file): + on_server = json.load(open(serverconfig.store_seen_file)) else: on_server = {} # On garde le maximum for k in set(on_client.keys() + on_server.keys()): on_server[k] = max(on_client.get(k, 0), on_server.get(k, 0)) # On enregistre ce nouveau dico - json.dump(on_server, open(store_seen_file, "w")) + json.dump(on_server, open(serverconfig.store_seen_file, "w")) # On envoie au client ce nouveau dico print json.dumps(on_server) if __name__ == "__main__": - if "--debug" in sys.argv or "--verbose" in sys.argv: - DEBUG = True + DEBUG = ("--debug" in sys.argv) or ("--verbose" in sys.argv) or serverconfig.DEBUG if sys.argv[1] == "check": news = fetch_all() if "--init" in sys.argv: