- p = urllib.urlopen("http://noob-tv.com/agenda01.html")
- t = p.read()
- # On parse
- soup = BeautifulSoup.BeautifulSoup(t)
- # On récupère tous les évènements
- garbage = soup.findAll("strong")
- events = []
- for o in garbage:
- l = o.findAll("span", attrs={"class":"Style31"})
- if l:
- events.append([o.text[:o.text.index(":")].strip(), l[0].string.lower().strip()]) # la date, l'event
- # On garde que les "sorties"
- events = [o for o in events if "sortie" in o[1]]
- # Fucking HTML
- events = [[o[0].replace(u"û", u"û").replace(u"é", u"é"), o[1]] for o in events]
- # Parsing des dates
- eventss = []
- for i in range(len(events)):
- raw_date, event = events[i]
- try:
- eventss.append([parse_date(raw_date), event])
- except ValueError:
- pass
- events = eventss
- del eventss
- noobs = [ev for ev in events if "noob" in ev[1]]
- warpzones = [ev for ev in events if "warpzone" in ev[1]]
- # On prend en considération le dernier évènement qui a eu lieu
- now = get_now()
- ######
- ###### RHÂ, shit, y'a des fuckings trucs du genre "1er" dans les dates… :/
- return noobs, warpzones
+ global last_nw
+ # GRUIK
+ if "last_nw" in globals().keys():
+ return last_nw
+ titles = parse_youtube("Funglisoft")
+ noobs = [t.lower().strip() for t in titles if t.lower().strip().startswith("noob")]
+ warpzones = [t.lower().strip() for t in titles if t.lower().strip().startswith("warpzone project")]
+ lasts = []
+ for serie in [noobs, warpzones]:
+ # Les titres sont dans l'ordre antichronologique, on s'arrête donc au premier qu'on comprend
+ for titre in serie:
+ try:
+ saison, ep = get_season_episode(titre)
+ except ValueError:
+ pass
+ lasts.append([saison, ep])
+ del saison, ep
+ break
+ last_noob = lasts[0][0]*100 + lasts[0][1]
+ last_warp = lasts[1][0]*100 + lasts[1][1]
+ last_nw = [last_noob, last_warp]
+ return last_nw
+
+def last_noob():
+ return last_noob_warpzone()[0]
+def last_warpzone():
+ return last_noob_warpzone()[1]