+def last_xantah():
+ p = urllib.urlopen("http://www.adoprixtoxis.com/lite/download/xantah_downloads.php")
+ t = p.read()
+ ids = re.findall("""<div class="top">Xantah (.*?)</div>""", t)
+ ids = [int(i) for i in ids]
+ return max(ids)
+
+def last_visiteur():
+ p = urllib.urlopen("http://www.levisiteurdufutur.com/episodes.html")
+ t = p.read()
+ # On parse
+ soup = BeautifulSoup.BeautifulSoup(t)
+ # On récupère les différentes saisons
+ saisons = soup.findAll("div", attrs={"id" : "episodes_list"})
+ nsaisons = len(saisons)
+ # La saison en cours est la première dans la liste
+ episodes = saisons[0].findAll("div", attrs={"class" : "thumbCaption"})
+ nepisodes = len(episodes)
+ return nsaisons * 100 + nepisodes
+
+def last_noob_warpzone():
+ p = urllib.urlopen("http://noob-tv.com/agenda01.html")
+ t = p.read()
+ # On parse
+ soup = BeautifulSoup.BeautifulSoup(t)
+ # On récupère tous les évènements
+ garbage = soup.findAll("strong")
+ events = []
+ for o in garbage:
+ l = o.findAll("span", attrs={"class":"Style31"})
+ if l:
+ events.append([o.text[:o.text.index(":")].strip(), l[0].string.lower().strip()]) # la date, l'event
+ # On garde que les "sorties"
+ events = [o for o in events if "sortie" in o[1]]
+ # Fucking HTML
+ events = [[o[0].replace(u"û", u"û").replace(u"é", u"é"), o[1]] for o in events]
+ # Parsing des dates
+ eventss = []
+ for i in range(len(events)):
+ raw_date, event = events[i]
+ try:
+ eventss.append([parse_date(raw_date), event])
+ except ValueError:
+ pass
+ events = eventss
+ del eventss
+ noobs = [ev for ev in events if "noob" in ev[1]]
+ warpzones = [ev for ev in events if "warpzone" in ev[1]]
+ # On prend en considération le dernier évènement qui a eu lieu
+ now = get_now()
+ ######
+ ###### RHÂ, shit, y'a des fuckings trucs du genre "1er" dans les dates… :/
+ return noobs, warpzones
+
+def parse_youtube(username):
+ """Récupère les vidéos d'une chaîne Youtube"""
+ link = "https://gdata.youtube.com/feeds/api/users/%s/uploads?start-index=1&max-results=50" % (username,)
+ entries = []
+ while link:
+ p = urllib.urlopen(link)
+ t = p.read()
+ x = etree.fromstring(t)
+ # lxml ne supporte pas les namespaces vides dans les requêtes XPath
+ ns = x.nsmap
+ ns["default"] = ns[None]
+ ns.pop(None)
+ # Il y a potentiellement une suite
+ nextlinks = x.xpath("//default:link[@rel='next']", namespaces=ns)
+ if nextlinks:
+ link = nextlinks[0].attrib["href"]
+ else:
+ link = False
+ localentries = x.xpath("//default:entry", namespaces=ns)
+ entries.extend(localentries)
+ titles = [e.xpath(".//default:title", namespaces=ns)[0].text for e in entries]
+ return titles
+
+