From 00a2a19131eb1cbebd97d79af7043005fbde17a2 Mon Sep 17 00:00:00 2001
From: Intel1 <25161862+Intel11@users.noreply.github.com>
Date: Tue, 27 Feb 2018 14:22:57 -0500
Subject: [PATCH] seriesadicto: pagina no funciona
---
plugin.video.alfa/channels/seriesadicto.py | 224 ---------------------
1 file changed, 224 deletions(-)
delete mode 100755 plugin.video.alfa/channels/seriesadicto.py
diff --git a/plugin.video.alfa/channels/seriesadicto.py b/plugin.video.alfa/channels/seriesadicto.py
deleted file mode 100755
index 12c0be77..00000000
--- a/plugin.video.alfa/channels/seriesadicto.py
+++ /dev/null
@@ -1,224 +0,0 @@
-# -*- coding: utf-8 -*-
-
-import re
-import urlparse
-
-from core import scrapertools
-from core import servertools
-from core.item import Item
-from platformcode import config, logger
-
-
-def mainlist(item):
- logger.info()
-
- itemlist = []
- itemlist.append(
- Item(channel=item.channel, action="letras", title="Todas por orden alfabético", url="http://seriesadicto.com/",
- folder=True))
- itemlist.append(Item(channel=item.channel, action="search", title="Buscar..."))
- return itemlist
-
-
-def search(item, texto):
- logger.info()
- texto = texto.replace(" ", "+")
- item.url = "http://seriesadicto.com/buscar/" + texto
-
- try:
- return series(item)
- # Se captura la excepci?n, para no interrumpir al buscador global si un canal falla
- except:
- import sys
- for line in sys.exc_info():
- logger.error("%s" % line)
- return []
-
-
-def letras(item):
- logger.info()
- itemlist = []
-
- # Descarga la página
- data = scrapertools.cachePage(item.url)
- data = scrapertools.find_single_match(data, '
(.*?)')
- logger.info("data=" + data)
-
- patronvideos = '([^<]+)'
- matches = re.compile(patronvideos, re.DOTALL).findall(data)
-
- for scrapedurl, scrapedtitle in matches:
- title = scrapedtitle
- plot = ""
- url = urlparse.urljoin(item.url, scrapedurl)
- thumbnail = ""
- logger.debug("title=[" + title + "], url=[" + url + "], thumbnail=[" + thumbnail + "]")
-
- itemlist.append(
- Item(channel=item.channel, action='series', title=title, url=url, thumbnail=thumbnail, plot=plot))
-
- return itemlist
-
-
-def series(item):
- logger.info()
- itemlist = []
-
- '''
-
-
-
- '''
-
- data = scrapertools.cachePage(item.url)
- logger.info("data=" + data)
-
- patron = '
- Saving Hope 1x02 |
- |
-
- |
-
- '''
-
- data = scrapertools.cachePage(item.url)
-
- patron = ']+>([^<]+)(.*?) 0:
- itemlist.append(Item(channel=item.channel, title="Añadir esta serie a la videoteca", url=item.url,
- action="add_serie_to_library", extra="episodios", show=item.show))
- itemlist.append(Item(channel=item.channel, title="Descargar todos los episodios de la serie", url=item.url,
- action="download_all_episodes", extra="episodios", show=item.show))
-
- return itemlist
-
-
-def extrae_idiomas(bloqueidiomas):
- logger.info("idiomas=" + bloqueidiomas)
- patronidiomas = '([a-z0-9]+).png"'
- idiomas = re.compile(patronidiomas, re.DOTALL).findall(bloqueidiomas)
- textoidiomas = ""
- language=[]
- for idioma in idiomas:
- if idioma == "1":
- textoidiomas = textoidiomas + "Español" + "/"
- if idioma == "2":
- textoidiomas = textoidiomas + "Latino" + "/"
- if idioma == "3":
- textoidiomas = textoidiomas + "VOSE" + "/"
- if idioma == "4":
- textoidiomas = textoidiomas + "VO" + "/"
- language.append(codigo_a_idioma(idioma))
- textoidiomas = textoidiomas[:-1]
- return textoidiomas, language
-
-
-def codigo_a_idioma(codigo):
- idioma = ""
- if codigo == "1":
- idioma = "Español"
- if codigo == "2":
- idioma = "Latino"
- if codigo == "3":
- idioma = "VOSE"
- if codigo == "4":
- idioma = "VO"
-
- return idioma
-
-
-def findvideos(item):
- logger.info()
- itemlist = []
-
- '''
-
-  |
- Nowvideo |
- Reproducir |
-
-
- '''
- # Descarga la pagina
- data = scrapertools.cachePage(item.url)
-
- patron = '([^<]+)