# -*- coding: utf-8 -*- import re import sys import urllib import urlparse from channelselector import get_thumb from core import httptools from core import scrapertools from core import servertools from core.item import Item from platformcode import config, logger from core import tmdb from lib import generictools host = 'http://alltorrent.net/' __modo_grafico__ = config.get_setting('modo_grafico', 'alltorrent') def mainlist(item): logger.info() itemlist = [] thumb_pelis = get_thumb("channels_movie.png") thumb_pelis_hd = get_thumb("channels_movie_hd.png") thumb_series = get_thumb("channels_tvshow.png") thumb_series_hd = get_thumb("channels_tvshow_hd.png") thumb_buscar = get_thumb("search.png") itemlist.append(item.clone(title="[COLOR springgreen][B]Todas Las Películas[/B][/COLOR]", action="listado", url=host, thumbnail=thumb_pelis, extra="pelicula")) itemlist.append(item.clone(title="[COLOR springgreen] Incluyen 1080p[/COLOR]", action="listado", url=host + "rezolucia/1080p/", thumbnail=thumb_pelis_hd, extra="pelicula")) itemlist.append(item.clone(title="[COLOR springgreen] Incluyen 720p[/COLOR]", action="listado", url=host + "rezolucia/720p/", thumbnail=thumb_pelis_hd, extra="pelicula")) itemlist.append(item.clone(title="[COLOR springgreen] Incluyen Hdrip[/COLOR]", action="listado", url=host + "rezolucia/hdrip/", thumbnail=thumb_pelis, extra="pelicula")) itemlist.append(item.clone(title="[COLOR springgreen] Incluyen 3D[/COLOR]", action="listado", url=host + "rezolucia/3d/", thumbnail=thumb_pelis_hd, extra="pelicula")) itemlist.append(item.clone(title="[COLOR floralwhite][B]Buscar[/B][/COLOR]", action="search", thumbnail=thumb_buscar, extra="titulo")) itemlist.append(item.clone(title="[COLOR oldlace] Por Título[/COLOR]", action="search", thumbnail=thumb_buscar, extra="titulo")) itemlist.append(item.clone(title="[COLOR oldlace] Por Año[/COLOR]", action="search", thumbnail=thumb_buscar, extra="año")) itemlist.append(item.clone(title="[COLOR oldlace] Por Rating Imdb[/COLOR]", action="search", thumbnail=thumb_buscar, extra="rating")) return itemlist def listado(item): logger.info() itemlist = [] # Descarga la página data = '' try: data = re.sub(r"\n|\r|\t|\s{2}|()", "", httptools.downloadpage(item.url).data) except: pass if not data and item.extra != "año": #Si la web está caída salimos sin dar error logger.error("ERROR 01: LISTADO: La Web no responde o ha cambiado de URL: " + item.url + " / DATA: " + data) itemlist.append(item.clone(action='', title=item.channel.capitalize() + ': ERROR 01: LISTADO:. La Web no responde o ha cambiado de URL. Si la Web está activa, reportar el error con el log')) return itemlist #si no hay más datos, algo no funciona, pintamos lo que tenemos elif not data and item.extra == "año": #cuando no hay datos para un año, da error. Tratamos de evitar el error return itemlist patron = '
([^"]+)<\/a>\s?<\/div>
(.*?)<\/div><\/div><\/div>' #data = scrapertools.find_single_match(data, patron) matches = re.compile(patron, re.DOTALL).findall(data) if not matches and not '