文書の過去の版を表示しています。
* 準備 - asetup - localSetupPandaClient - voms-proxy-init AMI tag を使うなら - localSetupEmi, localSetupPyAMI
* 最小限のコマンドは
% pathena \ –trf “Reco_tf.py –AMITag 'f611' –inputRDOFile %IN –outputAODFile %OUT.AOD.pool.root” \ –inDS ${inputDS} –outDS ${outputDS} -dbRelease=LATEST
となります。 pathena で他に便利な option としては –nFilesPerJob=$n : 使う CPU の数を調整できる。 n=1 にすると最大の数になるので、その job の終了は早くなるかも知れないが、 沢山 job を投げることになるのである期間内は自分の job の優先準備が下がる。 –individualOutDS : log と output の AOD が別々の dataset に保存される。 など。 あとはちょっと情報が古いですが、 https://twiki.cern.ch/twiki/bin/viewauth/AtlasComputing/PandaAthena を見ましょう。
注意点ですが、–trf の中身は基本的にいつも local で Reco_tf.py をやっているときと同じもの。 この transform command 全体を “” でくくらないといけないので、 例えば AMITag は別のクオート記号、この場合は '' にする。逆でも良い。 それから、–trf の中身には改行は入ってはいけません。
で、job を投げる script の中で、inputDS, outputDS を設定して下さい。 container でも大丈夫です。 例えば、script で
while read dataset;do
inputDS=$dataset outputAODtmp=`echo $inputDS | sed -e 's/recon\.RDO/AOD/g' outputDS=user.ynoguchi.${outputAODtmp%/}.v01
pathnea ...
done < datasetlist.txt
などとしておいて、datasetlist に必要な input を並べて、 それを食わせれば便利。