added support for translator comments if extracted via babel.
[jinja2.git] / jinja2 / ext.py
1 # -*- coding: utf-8 -*-
2 """
3     jinja2.ext
4     ~~~~~~~~~~
5
6     Jinja extensions allow to add custom tags similar to the way django custom
7     tags work.  By default two example extensions exist: an i18n and a cache
8     extension.
9
10     :copyright: (c) 2010 by the Jinja Team.
11     :license: BSD.
12 """
13 from collections import deque
14 from jinja2 import nodes
15 from jinja2.defaults import *
16 from jinja2.environment import get_spontaneous_environment
17 from jinja2.runtime import Undefined, concat
18 from jinja2.exceptions import TemplateAssertionError, TemplateSyntaxError
19 from jinja2.utils import contextfunction, import_string, Markup, next
20
21
22 # the only real useful gettext functions for a Jinja template.  Note
23 # that ugettext must be assigned to gettext as Jinja doesn't support
24 # non unicode strings.
25 GETTEXT_FUNCTIONS = ('_', 'gettext', 'ngettext')
26
27
28 class ExtensionRegistry(type):
29     """Gives the extension an unique identifier."""
30
31     def __new__(cls, name, bases, d):
32         rv = type.__new__(cls, name, bases, d)
33         rv.identifier = rv.__module__ + '.' + rv.__name__
34         return rv
35
36
37 class Extension(object):
38     """Extensions can be used to add extra functionality to the Jinja template
39     system at the parser level.  Custom extensions are bound to an environment
40     but may not store environment specific data on `self`.  The reason for
41     this is that an extension can be bound to another environment (for
42     overlays) by creating a copy and reassigning the `environment` attribute.
43
44     As extensions are created by the environment they cannot accept any
45     arguments for configuration.  One may want to work around that by using
46     a factory function, but that is not possible as extensions are identified
47     by their import name.  The correct way to configure the extension is
48     storing the configuration values on the environment.  Because this way the
49     environment ends up acting as central configuration storage the
50     attributes may clash which is why extensions have to ensure that the names
51     they choose for configuration are not too generic.  ``prefix`` for example
52     is a terrible name, ``fragment_cache_prefix`` on the other hand is a good
53     name as includes the name of the extension (fragment cache).
54     """
55     __metaclass__ = ExtensionRegistry
56
57     #: if this extension parses this is the list of tags it's listening to.
58     tags = set()
59
60     def __init__(self, environment):
61         self.environment = environment
62
63     def bind(self, environment):
64         """Create a copy of this extension bound to another environment."""
65         rv = object.__new__(self.__class__)
66         rv.__dict__.update(self.__dict__)
67         rv.environment = environment
68         return rv
69
70     def preprocess(self, source, name, filename=None):
71         """This method is called before the actual lexing and can be used to
72         preprocess the source.  The `filename` is optional.  The return value
73         must be the preprocessed source.
74         """
75         return source
76
77     def filter_stream(self, stream):
78         """It's passed a :class:`~jinja2.lexer.TokenStream` that can be used
79         to filter tokens returned.  This method has to return an iterable of
80         :class:`~jinja2.lexer.Token`\s, but it doesn't have to return a
81         :class:`~jinja2.lexer.TokenStream`.
82
83         In the `ext` folder of the Jinja2 source distribution there is a file
84         called `inlinegettext.py` which implements a filter that utilizes this
85         method.
86         """
87         return stream
88
89     def parse(self, parser):
90         """If any of the :attr:`tags` matched this method is called with the
91         parser as first argument.  The token the parser stream is pointing at
92         is the name token that matched.  This method has to return one or a
93         list of multiple nodes.
94         """
95         raise NotImplementedError()
96
97     def attr(self, name, lineno=None):
98         """Return an attribute node for the current extension.  This is useful
99         to pass constants on extensions to generated template code::
100
101             self.attr('_my_attribute', lineno=lineno)
102         """
103         return nodes.ExtensionAttribute(self.identifier, name, lineno=lineno)
104
105     def call_method(self, name, args=None, kwargs=None, dyn_args=None,
106                     dyn_kwargs=None, lineno=None):
107         """Call a method of the extension.  This is a shortcut for
108         :meth:`attr` + :class:`jinja2.nodes.Call`.
109         """
110         if args is None:
111             args = []
112         if kwargs is None:
113             kwargs = []
114         return nodes.Call(self.attr(name, lineno=lineno), args, kwargs,
115                           dyn_args, dyn_kwargs, lineno=lineno)
116
117
118 @contextfunction
119 def _gettext_alias(context, string):
120     return context.resolve('gettext')(string)
121
122
123 class InternationalizationExtension(Extension):
124     """This extension adds gettext support to Jinja2."""
125     tags = set(['trans'])
126
127     # TODO: the i18n extension is currently reevaluating values in a few
128     # situations.  Take this example:
129     #   {% trans count=something() %}{{ count }} foo{% pluralize
130     #     %}{{ count }} fooss{% endtrans %}
131     # something is called twice here.  One time for the gettext value and
132     # the other time for the n-parameter of the ngettext function.
133
134     def __init__(self, environment):
135         Extension.__init__(self, environment)
136         environment.globals['_'] = _gettext_alias
137         environment.extend(
138             install_gettext_translations=self._install,
139             install_null_translations=self._install_null,
140             uninstall_gettext_translations=self._uninstall,
141             extract_translations=self._extract
142         )
143
144     def _install(self, translations):
145         gettext = getattr(translations, 'ugettext', None)
146         if gettext is None:
147             gettext = translations.gettext
148         ngettext = getattr(translations, 'ungettext', None)
149         if ngettext is None:
150             ngettext = translations.ngettext
151         self.environment.globals.update(gettext=gettext, ngettext=ngettext)
152
153     def _install_null(self):
154         self.environment.globals.update(
155             gettext=lambda x: x,
156             ngettext=lambda s, p, n: (n != 1 and (p,) or (s,))[0]
157         )
158
159     def _uninstall(self, translations):
160         for key in 'gettext', 'ngettext':
161             self.environment.globals.pop(key, None)
162
163     def _extract(self, source, gettext_functions=GETTEXT_FUNCTIONS):
164         if isinstance(source, basestring):
165             source = self.environment.parse(source)
166         return extract_from_ast(source, gettext_functions)
167
168     def parse(self, parser):
169         """Parse a translatable tag."""
170         lineno = next(parser.stream).lineno
171
172         # find all the variables referenced.  Additionally a variable can be
173         # defined in the body of the trans block too, but this is checked at
174         # a later state.
175         plural_expr = None
176         variables = {}
177         while parser.stream.current.type != 'block_end':
178             if variables:
179                 parser.stream.expect('comma')
180
181             # skip colon for python compatibility
182             if parser.stream.skip_if('colon'):
183                 break
184
185             name = parser.stream.expect('name')
186             if name.value in variables:
187                 parser.fail('translatable variable %r defined twice.' %
188                             name.value, name.lineno,
189                             exc=TemplateAssertionError)
190
191             # expressions
192             if parser.stream.current.type == 'assign':
193                 next(parser.stream)
194                 variables[name.value] = var = parser.parse_expression()
195             else:
196                 variables[name.value] = var = nodes.Name(name.value, 'load')
197             if plural_expr is None:
198                 plural_expr = var
199
200         parser.stream.expect('block_end')
201
202         plural = plural_names = None
203         have_plural = False
204         referenced = set()
205
206         # now parse until endtrans or pluralize
207         singular_names, singular = self._parse_block(parser, True)
208         if singular_names:
209             referenced.update(singular_names)
210             if plural_expr is None:
211                 plural_expr = nodes.Name(singular_names[0], 'load')
212
213         # if we have a pluralize block, we parse that too
214         if parser.stream.current.test('name:pluralize'):
215             have_plural = True
216             next(parser.stream)
217             if parser.stream.current.type != 'block_end':
218                 name = parser.stream.expect('name')
219                 if name.value not in variables:
220                     parser.fail('unknown variable %r for pluralization' %
221                                 name.value, name.lineno,
222                                 exc=TemplateAssertionError)
223                 plural_expr = variables[name.value]
224             parser.stream.expect('block_end')
225             plural_names, plural = self._parse_block(parser, False)
226             next(parser.stream)
227             referenced.update(plural_names)
228         else:
229             next(parser.stream)
230
231         # register free names as simple name expressions
232         for var in referenced:
233             if var not in variables:
234                 variables[var] = nodes.Name(var, 'load')
235
236         # no variables referenced?  no need to escape
237         if not referenced:
238             singular = singular.replace('%%', '%')
239             if plural:
240                 plural = plural.replace('%%', '%')
241
242         if not have_plural:
243             plural_expr = None
244         elif plural_expr is None:
245             parser.fail('pluralize without variables', lineno)
246
247         if variables:
248             variables = nodes.Dict([nodes.Pair(nodes.Const(x, lineno=lineno), y)
249                                     for x, y in variables.items()])
250         else:
251             variables = None
252
253         node = self._make_node(singular, plural, variables, plural_expr)
254         node.set_lineno(lineno)
255         return node
256
257     def _parse_block(self, parser, allow_pluralize):
258         """Parse until the next block tag with a given name."""
259         referenced = []
260         buf = []
261         while 1:
262             if parser.stream.current.type == 'data':
263                 buf.append(parser.stream.current.value.replace('%', '%%'))
264                 next(parser.stream)
265             elif parser.stream.current.type == 'variable_begin':
266                 next(parser.stream)
267                 name = parser.stream.expect('name').value
268                 referenced.append(name)
269                 buf.append('%%(%s)s' % name)
270                 parser.stream.expect('variable_end')
271             elif parser.stream.current.type == 'block_begin':
272                 next(parser.stream)
273                 if parser.stream.current.test('name:endtrans'):
274                     break
275                 elif parser.stream.current.test('name:pluralize'):
276                     if allow_pluralize:
277                         break
278                     parser.fail('a translatable section can have only one '
279                                 'pluralize section')
280                 parser.fail('control structures in translatable sections are '
281                             'not allowed')
282             elif parser.stream.eos:
283                 parser.fail('unclosed translation block')
284             else:
285                 assert False, 'internal parser error'
286
287         return referenced, concat(buf)
288
289     def _make_node(self, singular, plural, variables, plural_expr):
290         """Generates a useful node from the data provided."""
291         # singular only:
292         if plural_expr is None:
293             gettext = nodes.Name('gettext', 'load')
294             node = nodes.Call(gettext, [nodes.Const(singular)],
295                               [], None, None)
296
297         # singular and plural
298         else:
299             ngettext = nodes.Name('ngettext', 'load')
300             node = nodes.Call(ngettext, [
301                 nodes.Const(singular),
302                 nodes.Const(plural),
303                 plural_expr
304             ], [], None, None)
305
306         # mark the return value as safe if we are in an
307         # environment with autoescaping turned on
308         if self.environment.autoescape:
309             node = nodes.MarkSafe(node)
310
311         if variables:
312             node = nodes.Mod(node, variables)
313         return nodes.Output([node])
314
315
316 class ExprStmtExtension(Extension):
317     """Adds a `do` tag to Jinja2 that works like the print statement just
318     that it doesn't print the return value.
319     """
320     tags = set(['do'])
321
322     def parse(self, parser):
323         node = nodes.ExprStmt(lineno=next(parser.stream).lineno)
324         node.node = parser.parse_tuple()
325         return node
326
327
328 class LoopControlExtension(Extension):
329     """Adds break and continue to the template engine."""
330     tags = set(['break', 'continue'])
331
332     def parse(self, parser):
333         token = next(parser.stream)
334         if token.value == 'break':
335             return nodes.Break(lineno=token.lineno)
336         return nodes.Continue(lineno=token.lineno)
337
338
339 def extract_from_ast(node, gettext_functions=GETTEXT_FUNCTIONS,
340                      babel_style=True):
341     """Extract localizable strings from the given template node.  Per
342     default this function returns matches in babel style that means non string
343     parameters as well as keyword arguments are returned as `None`.  This
344     allows Babel to figure out what you really meant if you are using
345     gettext functions that allow keyword arguments for placeholder expansion.
346     If you don't want that behavior set the `babel_style` parameter to `False`
347     which causes only strings to be returned and parameters are always stored
348     in tuples.  As a consequence invalid gettext calls (calls without a single
349     string parameter or string parameters after non-string parameters) are
350     skipped.
351
352     This example explains the behavior:
353
354     >>> from jinja2 import Environment
355     >>> env = Environment()
356     >>> node = env.parse('{{ (_("foo"), _(), ngettext("foo", "bar", 42)) }}')
357     >>> list(extract_from_ast(node))
358     [(1, '_', 'foo'), (1, '_', ()), (1, 'ngettext', ('foo', 'bar', None))]
359     >>> list(extract_from_ast(node, babel_style=False))
360     [(1, '_', ('foo',)), (1, 'ngettext', ('foo', 'bar'))]
361
362     For every string found this function yields a ``(lineno, function,
363     message)`` tuple, where:
364
365     * ``lineno`` is the number of the line on which the string was found,
366     * ``function`` is the name of the ``gettext`` function used (if the
367       string was extracted from embedded Python code), and
368     *  ``message`` is the string itself (a ``unicode`` object, or a tuple
369        of ``unicode`` objects for functions with multiple string arguments).
370
371     This extraction function operates on the AST and is because of that unable
372     to extract any comments.  For comment support you have to use the babel
373     extraction interface or extract comments yourself.
374     """
375     for node in node.find_all(nodes.Call):
376         if not isinstance(node.node, nodes.Name) or \
377            node.node.name not in gettext_functions:
378             continue
379
380         strings = []
381         for arg in node.args:
382             if isinstance(arg, nodes.Const) and \
383                isinstance(arg.value, basestring):
384                 strings.append(arg.value)
385             else:
386                 strings.append(None)
387
388         for arg in node.kwargs:
389             strings.append(None)
390         if node.dyn_args is not None:
391             strings.append(None)
392         if node.dyn_kwargs is not None:
393             strings.append(None)
394
395         if not babel_style:
396             strings = tuple(x for x in strings if x is not None)
397             if not strings:
398                 continue
399         else:
400             if len(strings) == 1:
401                 strings = strings[0]
402             else:
403                 strings = tuple(strings)
404         yield node.lineno, node.node.name, strings
405
406
407 class _CommentFinder(object):
408     """Helper class to find comments in a token stream.  Can only
409     find comments for gettext calls forwards.  Once the comment
410     from line 4 is found, a comment for line 1 will not return a
411     usable value.
412     """
413
414     def __init__(self, tokens, comment_tags):
415         self.tokens = tokens
416         self.comment_tags = comment_tags
417         self.offset = 0
418         self.last_lineno = 0
419
420     def find_backwards(self, offset):
421         try:
422             for _, token_type, token_value in \
423                     reversed(self.tokens[self.offset:offset]):
424                 if token_type in ('comment', 'linecomment'):
425                     try:
426                         prefix, comment = token_value.split(None, 1)
427                     except ValueError:
428                         continue
429                     if prefix in self.comment_tags:
430                         return [comment.rstrip()]
431             return []
432         finally:
433             self.offset = offset
434
435     def find_comments(self, lineno):
436         if not self.comment_tags or self.last_lineno > lineno:
437             return []
438         for idx, (token_lineno, _, _) in enumerate(self.tokens[self.offset:]):
439             if token_lineno > lineno:
440                 return self.find_backwards(self.offset + idx)
441         return self.find_backwards(len(self.tokens))
442
443
444 def babel_extract(fileobj, keywords, comment_tags, options):
445     """Babel extraction method for Jinja templates.
446
447     .. versionchanged:: 2.3
448        Basic support for translation comments was added.  If `comment_tags`
449        is now set to a list of keywords for extraction, the extractor will
450        try to find the best preceeding comment that begins with one of the
451        keywords.  For best results, make sure to not have more than one
452        gettext call in one line of code and the matching comment in the
453        same line or the line before.
454
455     :param fileobj: the file-like object the messages should be extracted from
456     :param keywords: a list of keywords (i.e. function names) that should be
457                      recognized as translation functions
458     :param comment_tags: a list of translator tags to search for and include
459                          in the results.
460     :param options: a dictionary of additional options (optional)
461     :return: an iterator over ``(lineno, funcname, message, comments)`` tuples.
462              (comments will be empty currently)
463     """
464     extensions = set()
465     for extension in options.get('extensions', '').split(','):
466         extension = extension.strip()
467         if not extension:
468             continue
469         extensions.add(import_string(extension))
470     if InternationalizationExtension not in extensions:
471         extensions.add(InternationalizationExtension)
472
473     environment = get_spontaneous_environment(
474         options.get('block_start_string', BLOCK_START_STRING),
475         options.get('block_end_string', BLOCK_END_STRING),
476         options.get('variable_start_string', VARIABLE_START_STRING),
477         options.get('variable_end_string', VARIABLE_END_STRING),
478         options.get('comment_start_string', COMMENT_START_STRING),
479         options.get('comment_end_string', COMMENT_END_STRING),
480         options.get('line_statement_prefix') or LINE_STATEMENT_PREFIX,
481         options.get('line_comment_prefix') or LINE_COMMENT_PREFIX,
482         str(options.get('trim_blocks', TRIM_BLOCKS)).lower() in \
483             ('1', 'on', 'yes', 'true'),
484         NEWLINE_SEQUENCE, frozenset(extensions),
485         # fill with defaults so that environments are shared
486         # with other spontaneus environments.  The rest of the
487         # arguments are optimizer, undefined, finalize, autoescape,
488         # loader, cache size, auto reloading setting and the
489         # bytecode cache
490         True, Undefined, None, False, None, 0, False, None
491     )
492
493     source = fileobj.read().decode(options.get('encoding', 'utf-8'))
494     try:
495         node = environment.parse(source)
496         tokens = list(environment.lex(environment.preprocess(source)))
497     except TemplateSyntaxError, e:
498         # skip templates with syntax errors
499         return
500
501     finder = _CommentFinder(tokens, comment_tags)
502     for lineno, func, message in extract_from_ast(node, keywords):
503         yield lineno, func, message, finder.find_comments(lineno)
504
505
506 #: nicer import names
507 i18n = InternationalizationExtension
508 do = ExprStmtExtension
509 loopcontrols = LoopControlExtension