]>
gitweb.pimeys.fr Git - today.git/blob - today_server.py
2 # -*- encoding: utf-8 -*-
5 script qui affiche des trucs à penser, des J-n des conneries
8 Partie serveur, prévue pour chercher périodiquement les trucs non lus
9 et répondre à un check.
15 from lxml
import etree
23 os
.chdir('/home/vincent/scripts/today/')
24 sys
.path
.append("/home/vincent/scripts/dtc/")
27 #: Fichier où sont stockés les derniers IDs des trucs
28 store_published_file
= "lasts_published"
30 #: Fichier où est stockée une copie de la liste des derniers IDs *lus*
31 store_seen_file
= "lasts_sync"
33 #: Afficher du garbage pour débuguer
37 """Vérifie si il y a des quotes DTC non lues"""
38 return dtc
.last_inserted()
41 p
= urllib
.urlopen("http://xkcd.com")
43 current_id
= int(re
.findall("Permanent link to this comic: http://xkcd.com/(.*?)/", t
)[0])
47 p
= urllib
.urlopen("http://www.adoprixtoxis.com/lite/download/xantah_downloads.php")
49 ids
= re
.findall("""<div class="top">Xantah (.*?)</div>""", t
)
50 ids
= [int(i
) for i
in ids
]
54 p
= urllib
.urlopen("http://www.levisiteurdufutur.com/episodes.html")
57 soup
= BeautifulSoup
.BeautifulSoup(t
)
58 # On récupère les différentes saisons
59 saisons
= soup
.findAll("div", attrs
={"id" : "episodes_list"})
60 nsaisons
= len(saisons
)
61 # La saison en cours est la première dans la liste
62 episodes
= saisons
[0].findAll("div", attrs
={"class" : "thumbCaption"})
63 nepisodes
= len(episodes
)
64 return nsaisons
* 100 + nepisodes
66 def parse_youtube(username
):
67 """Récupère les vidéos d'une chaîne Youtube"""
68 link
= "https://gdata.youtube.com/feeds/api/users/%s/uploads?start-index=1&max-results=50" % (username
,)
71 p
= urllib
.urlopen(link
)
73 x
= etree
.fromstring(t
)
74 # lxml ne supporte pas les namespaces vides dans les requêtes XPath
76 ns
["default"] = ns
[None]
78 # Il y a potentiellement une suite
79 nextlinks
= x
.xpath("//default:link[@rel='next']", namespaces
=ns
)
81 link
= nextlinks
[0].attrib
["href"]
84 localentries
= x
.xpath("//default:entry", namespaces
=ns
)
85 entries
.extend(localentries
)
86 titles
= [e
.xpath(".//default:title", namespaces
=ns
)[0].text
for e
in entries
]
89 def get_season_episode(title
):
90 """Récupère les numéros de la saison et de l'épisode. Crash si ne trouve pas."""
91 ep
= int(re
.findall("ep([0-9]*)", title
)[0])
92 saison
= int(re
.findall("s([0-9]*)", title
)[0])
95 def last_noob_warpzone():
98 if "last_nw" in globals().keys():
100 titles
= parse_youtube("Funglisoft")
101 noobs
= [t
.lower().strip() for t
in titles
if t
.lower().strip().startswith("noob")]
102 warpzones
= [t
.lower().strip() for t
in titles
if t
.lower().strip().startswith("warpzone project")]
104 for serie
in [noobs
, warpzones
]:
105 # Les titres sont dans l'ordre antichronologique, on s'arrête donc au premier qu'on comprend
107 if "noob le film" in titre
or "making of" in titre
or "noob versus rct" == titre
:
112 saison
, ep
= get_season_episode(titre
)
113 except (ValueError, IndexError) as e
:
114 print "%s sur un season_episode warpzone : %s\n" % (e
, titre
)
116 lasts
.append([saison
, ep
])
119 last_noob
= lasts
[0][0]*100 + lasts
[0][1]
120 last_warp
= lasts
[1][0]*100 + lasts
[1][1]
121 last_nw
= [last_noob
, last_warp
]
125 return last_noob_warpzone()[0]
127 return last_noob_warpzone()[1]
130 titles
= parse_youtube("HugoToutSeul")
134 titles
= parse_youtube("NormanFaitDesVideos")
138 titles
= parse_youtube("MonsieurDream")
142 titles
= parse_youtube("joueurdugrenier")
146 rss
= urllib
.urlopen("http://limbero.org/jl8/rss/")
148 x
= etree
.fromstring(t
)
149 links
= x
.xpath("//link")
150 maxnum
= links
[1].text
.split("/")[-1]
155 """Récupère la liste des derniers ids de chaque truc, stockée dans le fichier."""
156 f
= open(store_published_file
)
161 def update_file(news
):
162 """Met à jour la liste des derniers ids dans le fichier."""
163 f
= open(store_published_file
, 'w')
170 "xantah" : last_xantah
,
171 "visiteur" : last_visiteur
,
173 "warpzone" : last_warpzone
,
175 "norman" : last_norman
,
176 "cyprien" : last_cyprien
,
177 "grenier" : last_grenier
,
182 """Va chercher sur les différents sites les nouveaux trucs."""
184 for (k
, f
) in FETCHS
.iteritems():
187 except Exception as e
:
188 errmsg
= "Erreur à la récupération de %s :\n" % k
189 errmsg
+= traceback
.format_exc()
190 # On dumpe le contenu local de la mémoire au moment de l'exception
191 fobj
= inspect
.trace()[-1][0]
192 # On fait un peu de ménage
193 d
= {k
:v
for (k
,v
) in fobj
.f_locals
.iteritems() if not k
.startswith("_")}
194 # On évite d'envoyer truckLoadsOfShit
195 d
= {k
: (v
if len(str(v
)) < 800
196 else str(v
)[:400] + "*" * 40 + "TRUNCATED OBJECT" + "*" * 40 + str(v
)[-400:])
197 for (k
,v
) in d
.iteritems()}
198 errmsg
+= "\nContexte : %s\n\n" % (pprint
.pformat(d
))
203 """Reçoit une requête de synchronisation."""
204 # On récupère où en est le client sur stdin
206 on_client
= json
.loads(t
)
207 # On récupère où en est le serveur dans le fichier idoine
208 if os
.path
.isfile(store_seen_file
):
209 on_server
= json
.load(open(store_seen_file
))
212 # On garde le maximum
213 for k
in set(on_client
.keys() + on_server
.keys()):
214 on_server
[k
] = max(on_client
.get(k
, 0), on_server
.get(k
, 0))
215 # On enregistre ce nouveau dico
216 json
.dump(on_server
, open(store_seen_file
, "w"))
217 # On envoie au client ce nouveau dico
218 print json
.dumps(on_server
)
220 if __name__
== "__main__":
221 if "--debug" in sys
.argv
or "--verbose" in sys
.argv
:
223 if sys
.argv
[1] == "check":
225 if "--init" in sys
.argv
:
231 elif sys
.argv
[1] == "whatsup":
233 print json
.dumps(news
)
234 elif sys
.argv
[1] == "sync":