スキップしてメイン コンテンツに移動

RSS読みこんでTwitterに連投するだけのプログラムを書いた、ただしRで

みなさんおひさしぶりです。「アタシだけのヒト」みつかりましたか? 僕は数年前に、そうだと思った人に逃げられてしまいました、てへっ。それ以来というもの、週末は、ひとりじめの時間に自分へのこほうび! とばかりに仕事やハック、読書に明けたり暮れたりしちゃってます! 贅沢ですね。

ひさしぶりに日記のようなものを書いてしまった。これははずかしいね (キャラかわってね?)。いや、最近はついったーばかりで、ブログを書かなくなりましたねー。

さて、そんなわけで、みんな大好きついったーとRがらみのクイックハックしてみました。自由な時間をすべて自分のために使える独身==帰属==貴族なおいらですが、おとなの夏休みの自由研究ですね。「おとなの」とつくとなんだか微エロな気がしてくるので日本語ってば不思議!

。。。小ネタのためにくだらない前置きを読ませてしまってすみません><

具体的には RSXML でどっかの RSS を parse して twitteR でついったーに連投します。apply family を2つ使うだけの簡単なお仕事でした! 試しに書いたスクリプトをさらしておきますね。

自動的についったーに投稿するプログラムをボットと呼びますが、これはボットではありません。なぜなら、「この子がロボット三原則に縛られることのないようにしたかった」からです!(元ネタしらないひとごめんなさい

http://twitter.com/chii_pc

<<<
library("twitteR")
library("XML")

# tweet id database for redundancy check
posted_ids.file <- '/home/itoshi/Projects/chii_pc/posted_ids.rdat'
if ( file.exists(posted_ids.file) ) {
load(posted_ids.file)
} else {
posted_ids <- 0
save(posted_ids, file=posted_ids.file)
}

# make twitter's session
myuser <- "chii_pc"
mypassword <- "ちょびっツ"
mysession <- initSession(myuser, mypassword)

# twitter search
cat("Get rdf file...\n")
rdf.file <- "/home/itoshi/Projects/chii_pc/tl.rdf"
url <- '"http://pcod.no-ip.org/yats/search?query=%E3%81%A1%E3%81%83+(%E3%81%8A%E3%81%BC%E3%81%88%E3%81%9F+or+%E8%A6%9A%E
3%81%88%E3%81%9F)&lang=ja&fast&rss"'
cmd <- paste('curl -o', rdf.file, url, sep=" ")
cat(cmd, "\n")
system(cmd)

# parsing
cat("Parsing...\n")
doc <- xmlTreeParse(rdf.file, getDTD=F)
tweets <- xmlSApply(doc[["feed"]],
function(entry) {
if (xmlName(entry) == "entry") {

author.name <- xmlValue( entry[["author"]][["name"]] )
if (author.name != myuser) {
# make tweet
tweet <- xmlValue(entry[["summary"]])
tweet <- sub("^.+ : ", "", tweet)
tweet <- gsub("^@", ".@ ", tweet)

# id
entry.id <- xmlValue( entry[["id"]] )
entry.id <- as.numeric( sub(".*/", "", entry.id) )
cat(paste(entry.id, tweet), "\n")
c(entry.id, tweet)
}
}
}
)

# post
cat("Posting...\n")
posting_ids <- lapply(rev(tweets),
function(tweet) {
entry.id <- tweet[[1]]
tweet <- tweet[[2]]

if ( ! is.null(tweet) ) {

# redundancy check
if ( ! any(posted_ids == entry.id) ) {
cat(paste("Post", entry.id, tweet, sep="\t"), "\n")
# post new tweet
Sys.sleep(5)
updateStatus(tweet, session=mysession)
return(entry.id)
} else {
cat(paste("Skip", entry.id, tweet, sep="\t"), "\n")
}

}

}
)

# save tweet id database
posted_ids <- unique( c(posted_ids, unlist(posting_ids)) )
save(posted_ids, file=posted_ids.file)

cat("Done\n" )
>>>

以上のRプログラムを cron にしこむだけ。
*/5 * * * * R --vanilla -q -f /home/itoshi/Projects/chii_pc/chii_pc.r

そのうち人工無能かしてみたいなー。

参考文献:
{{amazon '4063343839

追記: 以下のエントリにインスパイアされました。ども。
#[[ついったーBOT作者にお願いしたいこと|http://ukstudio.jp/2009/08/twitter_bot/]]
#[[twitter bot3原則|http://twitter.g.hatena.ne.jp/maname/20090814/1250203258]]

コメント

このブログの人気の投稿

シーケンスアダプタ配列除去ツールまとめ

FASTQ/A file からシーケンスアダプター配列やプライマー配列を除くためのプログラムをまとめてみる。 まず、配列の除去には大別して2つの方向性がある。ひとつは、アダプター配列を含む「リード」を除いてしまう方法。もうひとつは除きたい配列をリードからトリムする方法である。後者のほうが有効リードが増えるメリットが、綺麗に除ききれない場合は、ゲノムへのマップ率が下がる。 気をつける点としては、アダプター/プライマーの reverse complement を検索するかどうか。paired end の際には大事になる。クオリティでトリムできるものや、Paired-end を考慮するものなどもある。アダプター/プライマー配列の文字列を引数として直接入力するものと、multi fasta 形式で指定できるももある。 From Evernote: シーケンスアダプタ配列除去ツールまとめ TagDust http://genome.gsc.riken.jp/osc/english/software/src/nexalign-1.3.5.tgz http://bioinformatics.oxfordjournals.org/content/25/21/2839.full インストール: curl -O http://genome.gsc.riken.jp/osc/english/software/src/tagdust.tgztar zxvf tagdust.tgz cd tagdust/ make sudo make install rehash 使いかた: tagdust adapter.fasta input.fastq -fdr 0.05 -o output.clean.fastq -a output.artifactual.fastq 解説: 入出力形式は fastq/a が使える。リード全体を除く。速い。アダプター配列を fasta 形式で入力できるのが地味に便利で、これに対応しているものがなかなかない。Muth–Manber algorithm (Approximate multiple

ChIP-seq の Peak calling tool を集めたよ

ほかにもあったら教えてください。プログラム/プロジェクト名がツールのプロジェクトサイトへのリンク。その論文タイトルは論文へのリンクになっています。 ツール名の50音順です。 CCCT -  A signal–noise model for significance analysis of ChIP-seq with negative control , chipdiff と同じグループ CisGenome -  CisGenome: An integrated software system for analyzing ChIP-chip and ChIP-seq data . ChromSig -  ChromaSig: a probabilistic approach to finding common chromatin signatures in the human genome. ChIPDiff -  An HMM approach to genome-wide identification of differential histone modification sites from ChIP-seq data ChIP-Seq Analysis Server FindPeaks -  FindPeaks 3.1: a tool for identifying areas of enrichment from massively parallel short-read sequencing technology. Version 4.0 is out. GLITR -  Extracting transcription factor targets from ChIP-Seq data HPeak -  HPeak: an HMM-based algorithm for defining read-enriched regions in ChIP-Seq data MACS -  Model-based Analysis of ChIP-Seq (MACS). PeakSeq -  PeakSeq enables systematic scoring of ChIP-seq experimen

ふりかえり

2013年4月に独立して7年目が終わろうとしている。ざっくりこれまでの研究を振り返る。 2013年から2017年の4年はフルスタックのゲノム科学、ゲノムインフォのラボを立ち上げることに集中していた。しかも人様が作った技術のユーザとして研究するのではなく、新しい技術を開発できるラボを目指した。ウェットの開発については、ドライのPIであっても本物を創りたいと考えたので世界最強や唯一の技術を目指した。特に1細胞ゲノム科学に注力した。そのためにまずグラントを取り仲間を集め技術を作った。幸いウェットは元同僚を中心に、ドライはドクター新卒の優秀な人材に囲まれた。並行して開発した実験やデータ解析技術を応用するため、データ生産や共同研究を支えるチームも作った。 2015年ぐらいからドライの論文が少しずつ出始め、2018年にはウェットのフラッグシップとなる技術RamDA-seqとQuartz-Seq2の2つ出版された。2021年1月現在、これらはそれぞれ世界唯一と世界最高性能の2冠である。これが達成できた大きな理由のひとつは、反応原理を徹底的に理解し制御するというチームやそのメンバーの特性にある。ここは世界最高レベルだと確信している。 2017-2018年はラボの移転がありウェットの開発や実験が大きく停滞した。その間ドライのチームががんばってくれて2019-2020年にはドライ研究の収穫の時期がきた。またRamDA-seqの試薬キット化・装置化、Quartz-Seq2とそのデータ解析技術での起業、実験試薬や道具の上市など社会実装の年でもあった。実験が少なくなった分、ウェットのメンバーの解析技術がかなり向上した時期でもある。これはウェットとドライがうまくコミュニケーションできる証拠でもある。 2019-2020年はウェット技術のフラッグシップを駆使した共同研究がいくつか花咲いた。主に「再生医療分野」への応用と「細胞ゆらぎと転写制御の謎」に迫る基礎的なテーマが対象で、もともと1細胞ゲノム科学を始めたときに目標としたものだった。 並行してゲノムデータの科学計算環境のインフラ開発に注力してきた。beowulf型PCクラスタからクラウドの移行やハイブリッド化、DevOpsによる自動構築、ワークフロー言語の導入、動的レポート生成などの導入・開発を行いこれらを日常的に使うラボになった。これらはNI