Changeset 22769


Ignore:
Timestamp:
05/15/18 08:16:55 (7 years ago)
Author:
Mathieu Morlighem
Message:

CHG: fixing call to gmsh for workshop binaries

Location:
issm/trunk-jpl/src/m
Files:
1 added
7 edited

Legend:

Unmodified
Added
Removed
  • issm/trunk-jpl/src/m/classes/clusters/generic.m

    r22666 r22769  
    111111                                else
    112112                                        %Add --gen-suppressions=all to get suppression lines
    113                                         fprintf(fid,'LD_PRELOAD=%s \\\n',cluster.valgrindlib);
     113                                        %fprintf(fid,'LD_PRELOAD=%s \\\n',cluster.valgrindlib);
    114114                                        if ismac,
    115115                                                if IssmConfig('_HAVE_MPI_'),
    116                                                         fprintf(fid,'mpiexec -np %i %s --leak-check=full --error-limit=no --dsymutil=yes --suppressions=%s %s/%s %s %s %s 2> %s.errlog >%s.outlog ',...
     116                                                        fprintf(fid,'mpiexec -np %i %s --leak-check=full --gen-suppressions=all --error-limit=no --dsymutil=yes --suppressions=%s %s/%s %s %s %s 2> %s.errlog >%s.outlog ',...
    117117                                                        cluster.np,cluster.valgrind,cluster.valgrindsup,cluster.codepath,executable,solution,[cluster.executionpath '/' dirname], modelname,modelname,modelname);
    118118                                                else
     
    122122                                        else
    123123                                                if IssmConfig('_HAVE_MPI_'),
    124                                                         fprintf(fid,'mpiexec -np %i %s --leak-check=full --error-limit=no --suppressions=%s %s/%s %s %s %s 2> %s.errlog >%s.outlog ',...
     124                                                        fprintf(fid,'mpiexec -np %i %s --leak-check=full --gen-suppressions=all --error-limit=no --suppressions=%s %s/%s %s %s %s 2> %s.errlog >%s.outlog ',...
    125125                                                        cluster.np,cluster.valgrind,cluster.valgrindsup,cluster.codepath,executable,solution,[cluster.executionpath '/' dirname],modelname,modelname,modelname);
    126126                                                else
  • issm/trunk-jpl/src/m/classes/clusters/pfe.m

    r21914 r22769  
    1111                 name           = 'pfe'
    1212                 login          = '';
    13                  modules        = {'comp-intel/2016.2.181' 'mpi-sgi/mpt'};
     13                 modules        = {'comp-intel/2018.0.128' 'mpi-sgi/mpt'};
    1414                 numnodes       = 20;
    1515                 cpuspernode    = 8;
     
    163163                         fprintf(fid,'#PBS -e %s.errlog \n\n',[cluster.executionpath '/' dirname '/' modelname]);
    164164                         fprintf(fid,'. /usr/share/modules/init/bash\n\n');
    165                          fprintf(fid,'module load comp-intel/2016.2.181\n');
    166                          fprintf(fid,'module load mpi-sgi/mpt\n');
     165                         for i=1:numel(cluster.modules),
     166                                 fprintf(fid,['module load ' cluster.modules{i} '\n']);
     167                         end
    167168                         fprintf(fid,'export PATH="$PATH:."\n\n');
    168169                         fprintf(fid,'export MPI_GROUP_MAX=64\n\n');
     170                         fprintf(fid,'export MKL_NUM_THREADS=2\n\n');
    169171                         fprintf(fid,'export ISSM_DIR="%s/../"\n',cluster.codepath); %FIXME
    170172                         fprintf(fid,'source $ISSM_DIR/etc/environment.sh\n');       %FIXME
     
    226228                         fprintf(fid,'#PBS -e %s.errlog \n\n',[cluster.executionpath '/' dirname '/' modelname]);
    227229                         fprintf(fid,'. /usr/share/modules/init/bash\n\n');
    228                          fprintf(fid,'module load comp-intel/2016.2.181\n');
    229                          fprintf(fid,'module load mpi-sgi/mpt\n');
     230                         for i=1:numel(cluster.modules),
     231                                 fprintf(fid,['module load ' cluster.modules{i} '\n']);
     232                         end
    230233                         fprintf(fid,'export PATH="$PATH:."\n\n');
    231234                         fprintf(fid,'export MPI_GROUP_MAX=64\n\n');
     
    353356                         fprintf(fid,'#PBS -e %s.errlog \n\n',modelname);
    354357                         fprintf(fid,'. /usr/share/modules/init/bash\n\n');
     358                         %for i=1:numel(cluster.modules),
     359                         %       fprintf(fid,['module load ' cluster.modules{i} '\n']);
     360                         %end
    355361                         fprintf(fid,'module load comp-intel/2016.2.181\n');
    356362                         fprintf(fid,'module load netcdf/4.4.1.1_mpt\n');
  • issm/trunk-jpl/src/m/inversions/marshallcostfunctions.m

    r21049 r22769  
    1515        pos=find(cost_functions==510); data(pos) = {'ThicknessPositive'};
    1616        pos=find(cost_functions==601); data(pos) = {'SurfaceAbsMisfit'};
     17        pos=find(cost_functions==602); data(pos) = {'OmegaAbsGradient'};
     18        pos=find(cost_functions==603); data(pos) = {'EtaDiff'};
  • issm/trunk-jpl/src/m/inversions/supportedcontrols.m

    r19001 r22769  
    22
    33        list = {...
     4                'BalancethicknessSpcthickness',...
    45                'BalancethicknessThickeningRate',...
    56                'FrictionCoefficient',...
  • issm/trunk-jpl/src/m/mesh/planet/gmsh/gmshplanet.m

    r19288 r22769  
    102102        end
    103103
     104        %Find path to gmsh
     105        paths = {[issmdir() '/bin/gmsh'],[issmdir() '/externalpackages/gmsh/install/gmsh']};
     106        gmshpath = '';
     107        for i=paths
     108                if exist(i{1},'file'),
     109                        gmshpath = i{1}
     110                end
     111        end
     112        if isempty(gmshpath),
     113                error('gmt not found, make sure it is properly installed');
     114        end
     115
    104116        %call gmsh
    105117        if  exist(options,'refine'),
    106                 eval(['!gmsh -tol 1e-8 -2 sphere.geo -bgm sphere.pos']);
     118                system([gmshpath ' -tol 1e-8 -2 sphere.geo -bgm sphere.pos']);
    107119        else
    108                 %call gmsh
    109                 eval(['!gmsh -tol 1e-8 -2 sphere.geo']);
     120                system([gmshpath ' -tol 1e-8 -2 sphere.geo']);
    110121        end
    111122
     
    163174
    164175        %erase files:
    165         eval(['!rm -rf sphere.geo sphere.msh sphere.pos']);
     176        system('rm -rf sphere.geo sphere.msh sphere.pos');
    166177
    167178        %return mesh:
  • issm/trunk-jpl/src/m/plot/subplotmodel.m

    r14400 r22769  
    3030                if(((i-1)*ncols+j)==num)
    3131                        ha = axes('Units','normalized', ...
    32                                 'Position',[xmin ymin width height],'XTickLabel','','YTickLabel','','Visible','off');
     32                                'Position',[xmin ymin width height]);%,'XTickLabel','','YTickLabel','','Visible','off');
    3333                        return
    3434                end
  • issm/trunk-jpl/src/m/solvers/mumpsoptions.m

    r22562 r22769  
    2727        mumps.pc_factor_mat_solver_package=getfieldvalue(options,'pc_factor_mat_solver_package','mumps');
    2828        mumps.mat_mumps_icntl_14=getfieldvalue(options,'mat_mumps_icntl_14',120);
     29
     30        %Seems like this one is not needed anymore
    2931        mumps.pc_factor_shift_positive_definite=getfieldvalue(options,'pc_factor_shift_positive_definite','true');
    3032
    3133        %These 2 lines make raijin break (ptwgts error during solver with PETSc 3.3)
    32         mumps.mat_mumps_icntl_28=2; %1=serial, 2=parallel
    33         mumps.mat_mumps_icntl_29=2; %parallel ordering 1 = ptscotch, 2 = parmetis
     34        %mumps.mat_mumps_icntl_28=2; %1=serial, 2=parallel
     35        %mumps.mat_mumps_icntl_29=2; %parallel ordering 1 = ptscotch, 2 = parmetis
    3436end
Note: See TracChangeset for help on using the changeset viewer.