スキップしてメイン コンテンツに移動

RSS読みこんでTwitterに連投するだけのプログラムを書いた、ただしRで

みなさんおひさしぶりです。「アタシだけのヒト」みつかりましたか? 僕は数年前に、そうだと思った人に逃げられてしまいました、てへっ。それ以来というもの、週末は、ひとりじめの時間に自分へのこほうび! とばかりに仕事やハック、読書に明けたり暮れたりしちゃってます! 贅沢ですね。

ひさしぶりに日記のようなものを書いてしまった。これははずかしいね (キャラかわってね?)。いや、最近はついったーばかりで、ブログを書かなくなりましたねー。

さて、そんなわけで、みんな大好きついったーとRがらみのクイックハックしてみました。自由な時間をすべて自分のために使える独身==帰属==貴族なおいらですが、おとなの夏休みの自由研究ですね。「おとなの」とつくとなんだか微エロな気がしてくるので日本語ってば不思議!

。。。小ネタのためにくだらない前置きを読ませてしまってすみません><

具体的には RSXML でどっかの RSS を parse して twitteR でついったーに連投します。apply family を2つ使うだけの簡単なお仕事でした! 試しに書いたスクリプトをさらしておきますね。

自動的についったーに投稿するプログラムをボットと呼びますが、これはボットではありません。なぜなら、「この子がロボット三原則に縛られることのないようにしたかった」からです!(元ネタしらないひとごめんなさい

http://twitter.com/chii_pc

<<<
library("twitteR")
library("XML")

# tweet id database for redundancy check
posted_ids.file <- '/home/itoshi/Projects/chii_pc/posted_ids.rdat'
if ( file.exists(posted_ids.file) ) {
load(posted_ids.file)
} else {
posted_ids <- 0
save(posted_ids, file=posted_ids.file)
}

# make twitter's session
myuser <- "chii_pc"
mypassword <- "ちょびっツ"
mysession <- initSession(myuser, mypassword)

# twitter search
cat("Get rdf file...\n")
rdf.file <- "/home/itoshi/Projects/chii_pc/tl.rdf"
url <- '"http://pcod.no-ip.org/yats/search?query=%E3%81%A1%E3%81%83+(%E3%81%8A%E3%81%BC%E3%81%88%E3%81%9F+or+%E8%A6%9A%E
3%81%88%E3%81%9F)&lang=ja&fast&rss"'
cmd <- paste('curl -o', rdf.file, url, sep=" ")
cat(cmd, "\n")
system(cmd)

# parsing
cat("Parsing...\n")
doc <- xmlTreeParse(rdf.file, getDTD=F)
tweets <- xmlSApply(doc[["feed"]],
function(entry) {
if (xmlName(entry) == "entry") {

author.name <- xmlValue( entry[["author"]][["name"]] )
if (author.name != myuser) {
# make tweet
tweet <- xmlValue(entry[["summary"]])
tweet <- sub("^.+ : ", "", tweet)
tweet <- gsub("^@", ".@ ", tweet)

# id
entry.id <- xmlValue( entry[["id"]] )
entry.id <- as.numeric( sub(".*/", "", entry.id) )
cat(paste(entry.id, tweet), "\n")
c(entry.id, tweet)
}
}
}
)

# post
cat("Posting...\n")
posting_ids <- lapply(rev(tweets),
function(tweet) {
entry.id <- tweet[[1]]
tweet <- tweet[[2]]

if ( ! is.null(tweet) ) {

# redundancy check
if ( ! any(posted_ids == entry.id) ) {
cat(paste("Post", entry.id, tweet, sep="\t"), "\n")
# post new tweet
Sys.sleep(5)
updateStatus(tweet, session=mysession)
return(entry.id)
} else {
cat(paste("Skip", entry.id, tweet, sep="\t"), "\n")
}

}

}
)

# save tweet id database
posted_ids <- unique( c(posted_ids, unlist(posting_ids)) )
save(posted_ids, file=posted_ids.file)

cat("Done\n" )
>>>

以上のRプログラムを cron にしこむだけ。
*/5 * * * * R --vanilla -q -f /home/itoshi/Projects/chii_pc/chii_pc.r

そのうち人工無能かしてみたいなー。

参考文献:
{{amazon '4063343839

追記: 以下のエントリにインスパイアされました。ども。
#[[ついったーBOT作者にお願いしたいこと|http://ukstudio.jp/2009/08/twitter_bot/]]
#[[twitter bot3原則|http://twitter.g.hatena.ne.jp/maname/20090814/1250203258]]

コメント

このブログの人気の投稿

シーケンスアダプタ配列除去ツールまとめ

FASTQ/A file からシーケンスアダプター配列やプライマー配列を除くためのプログラムをまとめてみる。 まず、配列の除去には大別して2つの方向性がある。ひとつは、アダプター配列を含む「リード」を除いてしまう方法。もうひとつは除きたい配列をリードからトリムする方法である。後者のほうが有効リードが増えるメリットが、綺麗に除ききれない場合は、ゲノムへのマップ率が下がる。 気をつける点としては、アダプター/プライマーの reverse complement を検索するかどうか。paired end の際には大事になる。クオリティでトリムできるものや、Paired-end を考慮するものなどもある。アダプター/プライマー配列の文字列を引数として直接入力するものと、multi fasta 形式で指定できるももある。 From Evernote: シーケンスアダプタ配列除去ツールまとめ TagDust http://genome.gsc.riken.jp/osc/english/software/src/nexalign-1.3.5.tgz http://bioinformatics.oxfordjournals.org/content/25/21/2839.full インストール: curl -O http://genome.gsc.riken.jp/osc/english/software/src/tagdust.tgztar zxvf tagdust.tgz cd tagdust/ make sudo make install rehash 使いかた: tagdust adapter.fasta input.fastq -fdr 0.05 -o output.clean.fastq -a output.artifactual.fastq 解説: 入出力形式は fastq/a が使える。リード全体を除く。速い。アダプター配列を fasta 形式で入力できるのが地味に便利で、これに対応しているものがなかなかない。Muth–Manber algorithm (Approximate multiple

ふりかえり

2013年4月に独立して7年目が終わろうとしている。ざっくりこれまでの研究を振り返る。 2013年から2017年の4年はフルスタックのゲノム科学、ゲノムインフォのラボを立ち上げることに集中していた。しかも人様が作った技術のユーザとして研究するのではなく、新しい技術を開発できるラボを目指した。ウェットの開発については、ドライのPIであっても本物を創りたいと考えたので世界最強や唯一の技術を目指した。特に1細胞ゲノム科学に注力した。そのためにまずグラントを取り仲間を集め技術を作った。幸いウェットは元同僚を中心に、ドライはドクター新卒の優秀な人材に囲まれた。並行して開発した実験やデータ解析技術を応用するため、データ生産や共同研究を支えるチームも作った。 2015年ぐらいからドライの論文が少しずつ出始め、2018年にはウェットのフラッグシップとなる技術RamDA-seqとQuartz-Seq2の2つ出版された。2021年1月現在、これらはそれぞれ世界唯一と世界最高性能の2冠である。これが達成できた大きな理由のひとつは、反応原理を徹底的に理解し制御するというチームやそのメンバーの特性にある。ここは世界最高レベルだと確信している。 2017-2018年はラボの移転がありウェットの開発や実験が大きく停滞した。その間ドライのチームががんばってくれて2019-2020年にはドライ研究の収穫の時期がきた。またRamDA-seqの試薬キット化・装置化、Quartz-Seq2とそのデータ解析技術での起業、実験試薬や道具の上市など社会実装の年でもあった。実験が少なくなった分、ウェットのメンバーの解析技術がかなり向上した時期でもある。これはウェットとドライがうまくコミュニケーションできる証拠でもある。 2019-2020年はウェット技術のフラッグシップを駆使した共同研究がいくつか花咲いた。主に「再生医療分野」への応用と「細胞ゆらぎと転写制御の謎」に迫る基礎的なテーマが対象で、もともと1細胞ゲノム科学を始めたときに目標としたものだった。 並行してゲノムデータの科学計算環境のインフラ開発に注力してきた。beowulf型PCクラスタからクラウドの移行やハイブリッド化、DevOpsによる自動構築、ワークフロー言語の導入、動的レポート生成などの導入・開発を行いこれらを日常的に使うラボになった。これらはNI

DNAを増幅するサーマルサイクラーを自作してみたよ

DNAをPCR法で増幅するために必要なサーマルサイクラーを自作してみました。自作と言っても、いわゆる、PCの自作と同じでパーツを組み立てていく感じです。購入から組み立ての様子を簡単に紹介します。 モチベーション ラボには様々なレクリエーションがあります。例えば、単にどこかに遊びに行ったり、スポーツ大会したり、ひたすら合宿形式でプログレスのプレゼンをするミーティングするなどがあります。それもよいのですが、せっかくなので、普段の研究時間ではトライできないが、研究に関わる hack を行う、というイベントを企画してみました。夏休みの自由研究や社会科見学的なノリです。   うちのラボでは、PCRを使ったウェットの実験技術の開発をしてきました。しかし、サーマルサイクラーのハードウェアの仕組みを体験的に理解している訳ではありません。そこで、サーマルサイクラーを作ってみました。   欧米で始まっている、自宅のガレージやキッチンでバイオロジーを行うムーブメント、バイオパンク、DIYbio を体験しておきたいというのもありますし、Arduino などオープンハードウェア、Maker のムーブメントを体験するのも目的の一つです。ハードウェア開発が思っているほどハードルが下っていることを体験できて、かつ、将来、ウェットの開発だけでなく、装置開発などもできたら、ラッキー、ぐらいの気持ちでやってみました。   購入 今回作ったのは、組み立て式で、かつ、仕様などや設計図が公開されているOpenPCRというサーマルサイクラーです。ハードウェアの仕様・設計図、制御ソフトウェアなどの情報がすべて公開されており、部品からも自作することが可能です。今回は、「設計図から部品や回路のパーツを作り、それらを組み立てる直前のもの」を購入しました。   ChaiBio https://www.chaibio.com/   OpenPCR https://www.chaibio.com/products/openpcr   なぜか http://openpcr.org/  で購入できなかったので、eBay にある ChaiBio で買いました。   OpenPCR - eBay http://www.ebay.com/itm/111096418574   本体価格は