Fórum Ubuntu CZ/SK
Ubuntu pro osobní počítače => Software => Příkazový řádek a programování pro GNU/Linux => Téma založeno: Uran 01 Srpna 2011, 08:45:15
-
Na webu bych ze stranek potreboval vyfiltrovat urcite adresy a ty pak opetovne vlozit do schranky.
Dokazu je vypsat v terminalu na stdout, ale zasekl jsem se u casti jak je opetovne vlozit do schranky.
#!/bin/bash
#vypise do terminalu na stdout
xclip -o | grep neco
#!/bin/bash
xclip -o | grep neco && xclip -i &
Nefunguje a skript zustane v terminalu vyset.
Edit tak to byla pytlovina. Nejak mi to holt po ranu nemysli.
#!/bin/bash
echo `xclip -o | grep rapidshare.com` | xclip -selection clipboard
Funguje
-
a nestaci
echo 'meh' | xclip
?
kdysi sem zkousel vsechny mozny schranky (viz https://gist.github.com/780868 lajny 81-93)
-
a nestaci echo 'meh' | xclip
?
kdysi sem zkousel vsechny mozny schranky (viz https://gist.github.com/780868 lajny 81-93)
No nestaci.
Co vlastne delam:
1. V Chromiu oznacim celou stranku a dam Ctrl+C
2. V konzoli spustim skript "xclip -o | grep rapidshare.com | xclip -selection clipboard"
3. Prepnu se do downloadmanageru a dam Ctrl+V
Jinak jsem to jeste drobne zjednodusil (smazl `` a echo) a funguje to.
Filtrace adres dle serveru v dovnloadmanageru (JDownloader) mi nevyhovuje, proto to resim takhle.
Dekuji za odkaz mrknu na to.
-
ptal ses, jak to vratis nazpet do scharnky a to mi teda funguje ;)
starenka@kosmik1:~$ echo 'ale nekecej' | xclip
starenka@kosmik1:~$ xclip -o
ale nekecej