Personal Website

My Web: MindEchoes.com

Monday, November 21, 2011

Como Postear Codigo en Blogger

Esto puede servir para postear código en Blogger o en cualquier otro asumo.
En el post anterior me puse a hacer la típica búsqueda de como hacer para postear código en blogger, porque cada vez que tuve que hacerlo lo hice de una u otra forma, pero nunca me dejo conforme y además siempre me olvidaba como era...
Y esta vez estuve un rato buscando, hasta que dije: " Y POR QUÉ NO COPIO A MI AMIGO PASTE.UBUNTU ?

Entonces, cree mi paste, y después me puse a ver el código que generaba a ver que onda, copié la parte del html que me interesaba y me agregue el css en mi documento (con algunas modificaciones minimas en mi caso para que se adapte mejor a mi configuracion de Blogger, pero también se podría hacer simplemente como a continuación).

Entonces, para postear código en Blogger, hay que entrar a la edición en HTML, y solo pegar este código:


<link rel="stylesheet" type="text/css" charset="utf-8" media="screen" 
href="http://paste.ubuntu.com/static/pastebin.css">

<div class="paste">
<table class="pastetable"><tbody>
<tr><td class="code"><div class="paste">

<pre>#INSERT CODE HERE!
</pre>
</div>
</td></tr>
</tbody></table>
</div>


Y listo!!
Reemplacen obviamente el "#INSERT CODE HERE!" por su código y ya esta!!

Descargar Archivos random de Wikipedia

Este es un script que acabo de hacer porque tenemos que conseguir más de 5000 articulos para un trabajo de la facultad, donde tenemos que implementar un motor de busqueda sobre documentos, y para conseguir la base de documentos y con cierto formato que sea parseable que mejor que wikipedia.
Entonces para poder bajar una buena cantidad de documentos hice (seguramente podría mejorarse):



# -*- coding: utf-8 *-*

import os
import random
import urllib

from BeautifulSoup import BeautifulSoup


class Browser(urllib.FancyURLopener):
    version = ('Mozilla/5.0 (Windows; U; Windows NT 5.1; it; '
               'rv:1.8.1.11) Gecko/20071127 Firefox/2.0.0.11')


def read_page(link):
    browser = Browser()
    page = browser.open(link)
    return page.read()


AZ = [chr(c) for c in xrange(65, 91)]
az = [chr(c) for c in xrange(97, 123)]

#http://es.wikipedia.org/wiki/Wikipedia:%C3%8Dndice_alfab%C3%A9tico
combinations = [unicode(pageA + pagea) for pageA in AZ for pagea in az]
combinations += [unicode(pageA + pageA) for pageA in AZ for pagea in AZ]

path_save = '/home/gato/Desktop/wiki'
base_url = 'http://es.wikipedia.org/wiki/Especial:Todas'
wiki_url = 'http://es.wikipedia.org'

for page in combinations:
    print 'COMBINATION:', page
    url = os.path.join(base_url, page)
    soup = soup = BeautifulSoup(read_page(url))
    links = soup.findAll('a', {"class": "mw-redirect"})
    length = len(links) - 1
    indexes = [random.randint(0, length) for i in xrange(8)]
    indexes = list(set(indexes))
    for index in indexes:
        filename = os.path.basename(links[index]['href']) + '.html'
        wiki_page = wiki_url + links[index]['href']
        print wiki_page
        content = read_page(wiki_page)
        with open(os.path.join(path_save, filename), 'w') as f:
            f.write(content)
        print 'Saved:', filename