import locale
import re
import BeautifulSoup
+from lxml import etree
import os
import sys
import urllib
######
###### RHÂ, shit, y'a des fuckings trucs du genre "1er" dans les dates… :/
return noobs, warpzones
-
+
+def parse_youtube(username):
+ """Récupère les vidéos d'une chaîne Youtube"""
+ link = "https://gdata.youtube.com/feeds/api/users/%s/uploads?start-index=1&max-results=50" % (username,)
+ entries = []
+ while link:
+ p = urllib.urlopen(link)
+ t = p.read()
+ x = etree.fromstring(t)
+ # lxml ne supporte pas les namespaces vides dans les requêtes XPath
+ ns = x.nsmap
+ ns["default"] = ns[None]
+ ns.pop(None)
+ # Il y a potentiellement une suite
+ nextlinks = x.xpath("//default:link[@rel='next']", namespaces=ns)
+ if nextlinks:
+ link = nextlinks[0].attrib["href"]
+ else:
+ link = False
+ localentries = x.xpath("//default:entry", namespaces=ns)
+ entries.extend(localentries)
+ titles = [e.xpath(".//default:title", namespaces=ns)[0].text for e in entries]
+ return titles
+
+
def get_file():
"""Récupère la liste des derniers ids de chaque truc, stockée dans le fichiers."""
f = open(store_published_file)