<i> -> <em> and similar in Elementary_MPI/index.shtml.
authorW. Trevor King <wking@drexel.edu>
Wed, 15 Sep 2010 01:36:03 +0000 (21:36 -0400)
committerW. Trevor King <wking@drexel.edu>
Wed, 15 Sep 2010 01:36:03 +0000 (21:36 -0400)
content/Elementary_MPI/index.shtml

index 025a61ef413e8689e6926d4ff06fa1d65c5c9839..6dc4f26936cd0a66a8e214b46af69d3a9ee9c0cb 100644 (file)
@@ -12,7 +12,7 @@ bindings to facilitate the coding of parallel codes in a distributed
 memory MIMD environment. In addition it provides a run-time
 environment to build and execute the parallel codes. It comes with
 implementations on most popular platforms, including
-the <i>beowulf</i> type systems.</p>
+the <em>beowulf</em> type systems.</p>
 
 <p>MPICH is a full implementation of MPI in a platform independent
 way. The MPICH implementation of MPI is what we will use in this
@@ -21,7 +21,7 @@ course.</p>
 <p>MPI maintains internal data-structures related to the
 administrations of the parallel tasks and to allow internal
 communications between the tasks and the environment. The latter are
-referred to as <i>handles</i>.</p>
+referred to as <em>handles</em>.</p>
 
 <p>The C MPI routines return an <code>int</code> and the Fortran
 routines return an integer <code>ierror</code> in the calls which
@@ -74,8 +74,8 @@ int MPI_Comm_rank( MPI_Comm comm, int *rank)
 
 <p>Returns respectively the size of the specified communicator and the
 rank (process number) of the current process within the specified
-communicator. The rank number goes between <i>0</i>
-and <i>size-1</i>.</p>
+communicator. The rank number goes between 0
+and <code>size-1</code>.</p>
 
 <h2 id="final">Finalizing an MPI code</h2>