ids = [int(i) for i in ids]
return max(ids)
+def last_visiteur():
+ p = urllib.urlopen("http://www.levisiteurdufutur.com/episodes.html")
+ t = p.read()
+ # On parse
+ soup = BeautifulSoup.BeautifulSoup(t)
+ # On récupère les différentes saisons
+ saisons = soup.findAll("div", attrs={"id" : "episodes_list"})
+ nsaisons = len(saisons)
+ # La saison en cours est la première dans la liste
+ episodes = saisons[0].findAll("div", attrs={"class" : "thumbCaption"})
+ nepisodes = len(episodes)
+ return nsaisons * 100 + nepisodes
+
def get_file():
"""Récupère la liste des derniers ids de chaque truc, stockée dans le fichiers."""
f = open(store_published_file)
"xkcd" : last_xkcd,
"dtc" : last_dtc,
"xantah" : last_xantah,
+ "visiteur" : last_visiteur,
}
def fetch_all():
try:
news[k] = f()
except Exception as e:
- #print "Erreur à la récupération de %s :" % k
+ print "Erreur à la récupération de %s :" % k
traceback.print_exc()
return news