Changeset 1043 for trunk


Ignore:
Timestamp:
May 10, 2018, 2:35:36 PM (7 years ago)
Author:
g7moreau
Message:
  • Just nice format
Location:
trunk/src
Files:
2 edited

Legend:

Unmodified
Added
Removed
  • trunk/src/cluster_command_psmn.m

    r1042 r1043  
    1717function cmd=cluster_command_psmn(ListProcessFile, ActionFullName, DirLog, NbProcess, NbCore, CPUTimeProcess)
    1818    SubmitScriptFile = regexprep(ListProcessFile, '\job_list.txt\>', 'submit_script.sh');
    19         fid_list = fopen(ListProcessFile, 'r');
     19    fid_list = fopen(ListProcessFile, 'r');
    2020    fid_submit = fopen(SubmitScriptFile, 'w');
    2121    i=1;
    22         while(true)
    23                 process = fgets(fid_list);
     22    while(true)
     23        process = fgets(fid_list);
    2424        if(process == -1)
    25                         break
     25            break
    2626        end
    2727        n = numel(process);
     
    3535                            process char(10)]);
    3636        i=i+1;
    37         end
    38         fclose(fid_list);
     37    end
     38    fclose(fid_list);
    3939    fclose(fid_submit);
    4040    system(['chmod +x ' SubmitScriptFile]);
  • trunk/src/series.xml.psmn

    r1042 r1043  
    11<?xml version="1.0"?>
    22<SeriesParam>
    3    <DiskQuotaCmd></DiskQuotaCmd> <!-- pas de quota au psmn -->
    4 <ClusterParam>
    5 <ExistenceTest>qstat -help</ExistenceTest>
    6 <!-- la politique au PSMN est d'envoyer de nombreux jobs, de courte durée et
    7      de 1 cœur. En effet, on n'est pas les seuls à avoir besoin de jobs non
    8      parallélisé. Et il y a des nœuds financés avec des projets spécifiques
    9      auxquels on a accÚs avec le deal que les financeurs devront attendre
    10      moins de 15 minutes. La queue à utiliser est "piv_debian" et c'est une
    11      queue virtuelle.
    12      Le staff du PSMN est trÚs favorable à ce qu'on envoie un grand nombre de
    13      jobs courts sur un seul cœur car ils les utilisent pour équilibrer la
    14      charge.
    15      Les tests récents ont montré qu'on peut sans problÚme avoir prÚs de 80k
    16      jobs. Donc 10k jobs par utilisateur n'est pas un problÚme.
    17 -->
    18   <NbCoreAdvised>1</NbCoreAdvised> <!-- 1 cœur -->
    19   <NbCoreMax>1</NbCoreMax>         <!--maximum 1 cœur -->
    20   <JobCPUTimeAdvised unit="minute">1</JobCPUTimeAdvised> <!--used to group
    21                     the iterations into jobs of sufficient CPU time.
    22                     Default estimate is 1 min per image pair, so
    23                     JobCPUTimeAdvised=1min means 1 image pair per job-->
    24   <JobNumberMax>10000</JobNumberMax><!--maximum number of jobs allowed (will group the iterations to fit in)-->
    25   <WallTimeMax unit="hour">23</WallTimeMax> <!--maximum allowed time for a job --> 
    26   <JobStatCmd>qstat |grep UVmat</JobStatCmd> <!--command to know the number of active and waiting job launches--> 
    27   <LaunchCmdFcn>cluster_command_psmn</LaunchCmdFcn> <!--name of the function used to create job launch commmand-->
    28 </ClusterParam>
    29 <SgeParam>
    30 </SgeParam>
     3   <DiskQuotaCmd></DiskQuotaCmd> <!-- pas de quota au PSMN -->
     4   <ClusterParam>
     5      <ExistenceTest>qstat -help</ExistenceTest>
     6      <!-- la politique au PSMN est d'envoyer de nombreux jobs, de courte durée et
     7         de 1 cœur. En effet, on n'est pas les seuls à avoir besoin de jobs non
     8         parallélisé. Et il y a des nœuds financés avec des projets spécifiques
     9         auxquels on a accÚs avec le deal que les financeurs devront attendre
     10         moins de 15 minutes. La queue à utiliser est "piv_debian" et c'est une
     11         queue virtuelle.
     12         Le staff du PSMN est trÚs favorable à ce qu'on envoie un grand nombre de
     13         jobs courts sur un seul cœur car ils les utilisent pour équilibrer la
     14         charge.
     15         Les tests récents ont montré qu'on peut sans problÚme avoir prÚs de 80k
     16         jobs. Donc 10k jobs par utilisateur n'est pas un problÚme.
     17         -->
     18      <NbCoreAdvised>1</NbCoreAdvised>                       <!-- 1 cœur -->
     19      <NbCoreMax>1</NbCoreMax>                               <!-- maximum 1 cœur -->
     20      <JobCPUTimeAdvised unit="minute">1</JobCPUTimeAdvised> <!--used to group
     21         the iterations into jobs of sufficient CPU time.
     22         Default estimate is 1 min per image pair, so
     23         JobCPUTimeAdvised=1min means 1 image pair per job
     24         -->
     25      <JobNumberMax>10000</JobNumberMax>                 <!-- maximum number of jobs allowed (will group the iterations to fit in) -->
     26      <WallTimeMax unit="hour">23</WallTimeMax>          <!-- maximum allowed time for a job --> 
     27      <JobStatCmd>qstat |grep UVmat</JobStatCmd>         <!-- command to know the number of active and waiting job launches --> 
     28      <LaunchCmdFcn>cluster_command_psmn</LaunchCmdFcn>  <!-- name of the function used to create job launch commmand -->
     29   </ClusterParam>
     30   <SgeParam>
     31   </SgeParam>
    3132</SeriesParam>
Note: See TracChangeset for help on using the changeset viewer.