-def last_visiteur():
- p = urllib.urlopen("http://www.levisiteurdufutur.com/episodes.html")
- t = p.read()
- # On parse
- soup = BeautifulSoup.BeautifulSoup(t)
- # On récupère les différentes saisons
- saisons = soup.findAll("div", attrs={"id" : "episodes_list"})
- nsaisons = len(saisons)
- # La saison en cours est la première dans la liste
- episodes = saisons[0].findAll("div", attrs={"class" : "thumbCaption"})
- nepisodes = len(episodes)
- return nsaisons * 100 + nepisodes
-
-def last_noob_warpzone():
- p = urllib.urlopen("http://noob-tv.com/agenda01.html")
- t = p.read()
- # On parse
- soup = BeautifulSoup.BeautifulSoup(t)
- # On récupère tous les évènements
- garbage = soup.findAll("strong")
- events = []
- for o in garbage:
- l = o.findAll("span", attrs={"class":"Style31"})
- if l:
- events.append([o.text[:o.text.index(":")].strip(), l[0].string.lower().strip()]) # la date, l'event
- # On garde que les "sorties"
- events = [o for o in events if "sortie" in o[1]]
- # Fucking HTML
- events = [[o[0].replace(u"û", u"û").replace(u"é", u"é"), o[1]] for o in events]
- # Parsing des dates
- eventss = []
- for i in range(len(events)):
- raw_date, event = events[i]
- try:
- eventss.append([parse_date(raw_date), event])
- except ValueError:
- pass
- events = eventss
- del eventss
- noobs = [ev for ev in events if "noob" in ev[1]]
- warpzones = [ev for ev in events if "warpzone" in ev[1]]
- # On prend en considération le dernier évènement qui a eu lieu
- now = get_now()
- ######
- ###### RHÂ, shit, y'a des fuckings trucs du genre "1er" dans les dates… :/
- return noobs, warpzones
-
-def parse_youtube(username):
- """Récupère les vidéos d'une chaîne Youtube"""
- link = "https://gdata.youtube.com/feeds/api/users/%s/uploads?start-index=1&max-results=50" % (username,)
- entries = []
- while link:
- p = urllib.urlopen(link)
- t = p.read()
- x = etree.fromstring(t)
- # lxml ne supporte pas les namespaces vides dans les requêtes XPath
- ns = x.nsmap
- ns["default"] = ns[None]
- ns.pop(None)
- # Il y a potentiellement une suite
- nextlinks = x.xpath("//default:link[@rel='next']", namespaces=ns)
- if nextlinks:
- link = nextlinks[0].attrib["href"]
- else:
- link = False
- localentries = x.xpath("//default:entry", namespaces=ns)
- entries.extend(localentries)
- titles = [e.xpath(".//default:title", namespaces=ns)[0].text for e in entries]
- return titles
-