1 # Copyright (C) 2009-2010  W. Trevor King <wking@drexel.edu>
2 #
3 # This program is free software: you can redistribute it and/or modify
4 # it under the terms of the GNU General Public License as published by
5 # the Free Software Foundation, either version 3 of the License, or
6 # (at your option) any later version.
7 #
8 # This program is distributed in the hope that it will be useful,
9 # but WITHOUT ANY WARRANTY; without even the implied warranty of
10 # MERCHANTABILITY or FITNESS FOR A PARTICULAR PURPOSE.  See the
11 # GNU General Public License for more details.
12 #
13 # You should have received a copy of the GNU General Public License
14 # along with this program.  If not, see <http://www.gnu.org/licenses/>.
15 #
16 # The author may be contacted at <wking@drexel.edu> on the Internet, or
17 # write to Trevor King, Drexel University, Physics Dept., 3141 Chestnut St.,
18 # Philadelphia PA 19104, USA.
20 """Histogram generation and comparison.
21 """
23 import matplotlib
24 matplotlib.use('Agg')  # select backend that doesn't require X Windows
25 import numpy
26 import pylab
28 from . import log
31 _multiprocess_can_split_ = True
32 """Allow nosetests to split tests between processes.
33 """
35 FIGURE = pylab.figure()  # avoid memory problems.
36 """`pylab` keeps internal references to all created figures, so share
37 a single instance.
38 """
41 class Histogram (object):
42     """A histogram with a flexible comparison method, `residual()`.
44     >>> h = Histogram()
45     """
46     def __init__(self):
47         self.headings = None
49     def calculate_bin_edges(self, data, bin_width):
50         """
51         >>> h = Histogram()
52         >>> h.calculate_bin_edges(numpy.array([-7.5, 18.2, 4]), 10)
53         array([-10.,   0.,  10.,  20.])
54         >>> h.calculate_bin_edges(numpy.array([-7.5, 18.2, 4, 20]), 10)
55         array([-10.,   0.,  10.,  20.])
56         >>> h.calculate_bin_edges(numpy.array([0, 18.2, 4, 20]), 10)
57         array([  0.,  10.,  20.])
58         >>> h.calculate_bin_edges(numpy.array([18.2, 4, 20]), 10)
59         array([  0.,  10.,  20.])
60         >>> h.calculate_bin_edges(numpy.array([18.2, 20]), 10)
61         array([ 10.,  20.])
62         """
63         m = data.min()
64         M = data.max()
65         bin_start = m - m % bin_width
66         return numpy.arange(bin_start, M+bin_width, bin_width, dtype=data.dtype)
68     def from_data(self, data, bin_edges):
69         """Initialize from `data`.
71         All bins should be of equal width (so we can calculate which
72         bin a data point belongs to).
73         """
74         data = numpy.array(data)
75         self.bin_edges = numpy.array(bin_edges)
76         bin_width = self.bin_edges - self.bin_edges
78         bin_is = numpy.floor((data - self.bin_edges)/bin_width)
79         self.counts = numpy.zeros((len(self.bin_edges)-1,), dtype=numpy.int)
80         for i in range(len(self.counts)):
81             self.counts[i] = (bin_is == i).sum()
82         self.counts = numpy.array(self.counts)
83         self.total = float(len(data)) # some data might be outside the bins
84         self.mean = data.mean()
85         self.std_dev = data.std()
86         self.normalize()
88     def from_stream(self, stream):
89         """Initialize from `stream`.
91         File format:
93             # comment and blank lines ignored
94             <bin_edge><whitespace><count>
95             ...
97         `<bin_edge>` should mark the left-hand side of the bin, and
98         all bins should be of equal width (so we know where the last
99         one ends).
101         >>> import StringIO
102         >>> h = Histogram()
103         >>> h.from_stream(StringIO.StringIO('''# Force (N)\\tUnfolding events
104         ... 150e-12\\t10
105         ... 200e-12\\t40
106         ... 250e-12\\t5
107         ... '''))
109         ['Force (N)', 'Unfolding events']
110         >>> h.total
111         55.0
112         >>> h.counts
113         [10.0, 40.0, 5.0]
114         >>> h.bin_edges  # doctest: +ELLIPSIS
115         [1.5e-10, 2...e-10, 2.5...e-10, 3e-10]
116         >>> h.probabilities  # doctest: +ELLIPSIS
117         [0.181..., 0.727..., 0.0909...]
118         """
119         self.headings = None
120         self.bin_edges = []
121         self.counts = []
122         for line in stream.readlines():
123             line = line.strip()
124             if len(line) == 0 or line.startswith('#'):
125                 if self.headings == None and line.startswith('#'):
126                     line = line[len('#'):]
127                     self.headings = [x.strip() for x in line.split('\t')]
128                 continue # ignore blank lines and comments
129             try:
130                 bin_edge,count = line.split()
131             except ValueError:
132                 log().error('Unable to parse histogram line: "%s"' % line)
133                 raise
134             self.bin_edges.append(float(bin_edge))
135             self.counts.append(float(count))
136         bin_width = self.bin_edges - self.bin_edges
137         self.bin_edges.append(self.bin_edges[-1]+bin_width)
138         self.analyze()
140     def to_stream(self, stream):
141         """Write to `stream` with the same format as `from_stream()`.
143         >>> import sys
144         >>> h = Histogram()
145         >>> h.headings = ['Force (N)', 'Unfolding events']
146         >>> h.bin_edges = [1.5e-10, 2e-10, 2.5e-10, 3e-10]
147         >>> h.counts = [10, 40, 5]
148         >>> h.to_stream(sys.stdout)
149         ... # doctest: +NORMALIZE_WHITESPACE, +REPORT_UDIFF
150         #Force (N)\tUnfolding events
151         1.5e-10\t10
152         2e-10\t40
153         2.5e-10\t5
154         """
155         if self.headings != None:
156             stream.write('#%s\n' % '\t'.join(self.headings))
157         for bin,count in zip(self.bin_edges, self.counts):
158             stream.write('%g\t%g\n' % (bin, count))
160     def analyze(self):
161         """Analyze `.counts` and `.bin_edges` if the raw data is missing.
163         Generate `.total`, `.mean`, and `.std_dev`, and run
164         `.normalize()`.
165         """
166         bin_width = self.bin_edges - self.bin_edges
167         self.total = float(sum(self.counts))
168         self.mean = 0
169         for bin,count in zip(self.bin_edges, self.counts):
170             bin += bin_width / 2.0
171             self.mean += bin * count
172         self.mean /=  float(self.total)
173         variance = 0
174         for bin,count in zip(self.bin_edges, self.counts):
175             bin += bin_width / 2.0
176             variance += (bin - self.mean)**2 * count
177         self.std_dev = numpy.sqrt(variance)
178         self.normalize()
180     def normalize(self):
181         """Generate `.probabilities` from `.total` and `.counts`.
182         """
183         self.total = float(self.total)
184         self.probabilities = [count/self.total for count in self.counts]
186     def mean_residual(self, other):
187         return abs(other.mean - self.mean)
189     def std_dev_residual(self, other):
190         return abs(other.std_dev - self.std_dev)
192     def chi_squared_residual(self, other):
193         assert (self.bin_edges == other.bin_edges).all()
194         residual = 0
195         for probA,probB in zip(self.probabilities, other.probabilities):
196             residual += (probA-probB)**2 / probB
197         return residual
199     def jensen_shannon_residual(self, other):
200         assert (self.bin_edges == other.bin_edges).all()
201         def d_KL_term(p,q):
202             """
203             Kullback-Leibler divergence for a single bin, with the
204             exception that we return 0 if q==0, rather than
205             exploding like d_KL should.  We can do this because
206             the way d_KL_term is used in the Jensen-Shannon
207             divergence, if q (really m) == 0, then p also == 0,
208             and the Jensen-Shannon divergence for the entire term
209             should be zero.
210             """
211             if p==0 or q==0 or p==q:
212                 return 0.0
213             return p * numpy.log2(p/q)
214         residual = 0
215         for probA,probB in zip(self.probabilities, other.probabilities):
216             m = (probA+probB) / 2.0
217             residual += 0.5*(d_KL_term(probA,m) + d_KL_term(probB,m))
218         return residual
220     def _method_to_type(self, name):
221         return name[:-len('_residual')].replace('_', '-')
223     def _type_to_method(self, name):
224         return '%s_residual' % name.replace('-', '_')
226     def types(self):
227         """Return a list of supported residual types.
228         """
229         return sorted([self._method_to_type(x)
230                        for x in dir(self) if x.endswith('_residual')])
232     def residual(self, other, type='jensen-shannon'):
233         """Compare this histogram with `other`.
235         Supported comparison `type`\s may be found with `types()`:
237         >>> h = Histogram()
238         >>> h.types()
239         ['chi-squared', 'jensen-shannon', 'mean', 'std-dev']
241         Selecting an invalid `type` raises an exception.
243         >>> h.residual(other=None, type='invalid-type')
244         Traceback (most recent call last):
245           ...
246         AttributeError: 'Histogram' object has no attribute 'invalid_type_residual'
248         For residual types where there is a convention, this histogram
249         is treated as the experimental histogram and the other
250         histogram is treated as the theoretical one.
251         """
252         r_method = getattr(self, self._type_to_method(type))
253         return r_method(other)
255     def plot(self, title=None, filename=None):
256         FIGURE.clear()
257         axes = FIGURE.add_subplot(1, 1, 1)
258         axes.hist(x=self.bin_edges[:-1],  # one fake entry for each bin
259                   weights=self.counts,    # weigh the fake entries by count
260                   bins=self.bin_edges,
261                   align='mid', histtype='stepfilled')
262         axes.set_title(title)
263         pylab.show()
264         FIGURE.savefig(filename)