* 準備 - asetup - localSetupPandaClient - voms-proxy-init AMI tag を使うなら - localSetupEmi, localSetupPyAMI * 最小限のコマンドは % pathena \ --trf "Reco_tf.py --AMITag 'f611' --inputRDOFile %IN --outputAODFile %OUT.AOD.pool.root" \ --inDS ${inputDS} --outDS ${outputDS} -dbRelease=LATEST となります。 pathena で他に便利な option としては --nFilesPerJob=$n : 使う CPU の数を調整できる。 n=1 にすると最大の数になるので、その job の終了は早くなるかも知れないが、 沢山 job を投げることになるのである期間内は自分の job の優先準備が下がる。 --individualOutDS : log と output の AOD が別々の dataset に保存される。 など。 あとはちょっと情報が古いですが、 https://twiki.cern.ch/twiki/bin/viewauth/AtlasComputing/PandaAthena を見ましょう。 注意点ですが、--trf の中身は基本的にいつも local で Reco_tf.py をやっているときと同じもの。 この transform command 全体を "" でくくらないといけないので、 例えば AMITag は別のクオート記号、この場合は '' にする。逆でも良い。 それから、--trf の中身には改行は入ってはいけません。 で、job を投げる script の中で、inputDS, outputDS を設定して下さい。 container でも大丈夫です。 例えば、script で while read dataset;do inputDS=$dataset outputAODtmp=`echo $inputDS | sed -e 's/recon\.RDO/AOD/g' outputDS=user.ynoguchi.${outputAODtmp%/}.v01 pathnea ... done < datasetlist.txt などとしておいて、datasetlist に必要な input を並べて、 それを食わせれば便利。