Centro Virtual Cervantes

Obras de referenciaCongresos de la lengua

Congreso de Sevilla

Inicio

        


LA CODIFICACIÓN TEXTUAL ELECTRÓNICA

Congreso de Sevilla
 

La Text Encoding Initiative y su aplicación a la codificación textual y explotación1
Charles B. Faulhaber. Universidad de California, Berkeley

 

Desde el comienzo de los trabajos informatizados sobre textos literarios y lingüísticos se ha sentido la necesidad de codificar los mismos para facilitar su uso. En un principio esto significó el empleo de los juegos de caracteres del ordenador al uso, sean cuales fueran sus fallas. Así los primeros textos electrónicos, de los años 50 y 60, utilizaban sólo mayúsculas y unos cuantos signos de puntuación. Con tal sistema era imposible representar todas las características de los textos. La imposición del código ASCII (American Standard Code for Information Interchange) de 128 caracteres alivió el problema hasta cierto punto, pero la codificación de un texto va mucho más allá de la mera secuencia de los caracteres de que se compone. Por lo tanto en diversos campos se han ideado normas de muy diferentes tipos para responder a los intereses y necesidades de distintas clases de investigación. Esta multiplicidad de normas acarrea una consecuencia ineluctable: rinde imposible el uso de una misma transcripción por propósitos diferentes o, visto desde otro punto de vista, imposibilita el empleo de una herramienta informatizada —v.g., un programa para el análisis y recuperación de textos— para textos transcritos según normas diferentes. Esto significa que hay que modificar la herramienta para acomodarla a textos transcritos con normas diferentes o modificar los textos para adecuarlos al programa. La solución ideal es una norma lo suficientemente flexible y a la vez generalizada para poder acomodar los intereses de grupos de investigadores muy diversos —estudiantes de la semántica y la fonética, de lexis, de la retórica, de lingüística computacional, de análisis discursivo y un largo etcétera— y para fomentar el desarrollo de herramientas de amplia aplicación a una gama de textos de distintos tipos y en lenguas antiguas y modernas.


Subir


En el campo de los estudios medievales hispánicos están bastante extendidas las llamadas «normas de Madison», ideadas originalmente para suministrar un corpus de textos como base del Dictionary of the Old Spanish Language (vid. Mackenzie, 1986 y la ponencia del mismo en este congreso). Sin embargo, muchos editores de textos antiguos se niegan a utilizarlas, aun para la transcripción original del MS base, porque no entienden la utilidad a los estudios filológicos en general de disponer de un corpus de textos transcritos según unos patrones fijos.

Aunque las normas de Madison han hecho un servicio notable en sus casi veinte años de vida, y existe un corpus textual de más de 100 millones de caracteres transcrito de acuerdo con ellas, no responden a todas las necesidades actuales. Si su empleo se extiende a los textos modernos, habrá que enmendarlas para indicar, entre otras cosas, los acentos diacríticos; pero su falla principal es que no tienen en cuenta la notación de los aspectos formales de un texto: la división en libros o capítulos, la identificación de prólogos, introducciones, dedicatorias, epílogos, índices, etc. La falta de tal notación no debe sorprender, dado el enfoque lexicográfico original y, sobre todo, dado el hecho de que las normas son anteriores al concepto de texto estructurado (structured text; vid. Cover et al., 1990), la representación de todos los elementos textuales mediante una notación explícita. En este respecto han sido superadas por el Standard Generalized Markup Language (SGML) «lenguaje estándar generalizado de marcación» (vid. ISO 1986, 1988, Smith 1987, Smith & Stutely 1988), basado en GML, el Generalized Markup Language inventado por IBM. SGML fue ideado originalmente como herramienta para las industrias editorial e informática para formalizar la descripción de documentos de cualquier tipo. Sus propiedades permiten la especificación de los elementos textuales de manera explícita y sin posibilidad de ambigüedad, de tal forma que ese mismo elemento puede transmitirse de un sistema de tratamiento de documentos a otro, aislarse para las necesidades del análisis textual o formatearse para la fotocomposición. SGML no es una lengua procedural sino declarativa. Es decir que en vez de emitir una serie de comandos explícitos para sangrar un párrafo, SGML sencillamente declara el comienzo del párrafo con un membrete estándar: <par>. Ese membrete y todos los demás que hacen falta para documentar la estructura del texto en cuestión se describen explícitamente en una «definición de tipo de documento» (DTD) colocado al comienzo del texto. A su vez el DTD se define de acuerdo con las convenciones de SGML, convenciones que permiten una descripción precisa y una enumeración de la estructura lógica y semántica del texto. Dentro de estas convenciones se pueden llevar a cabo diversos tipos de marcación, pero por lo general todos estipularán que cada elemento estructural del documento se delimite por dos membretes, uno inicial y otro final. Cuando el documento se formatea para una impresora o pantalla determinada, estos membretes se convierten en los comandos específicos que dicha impresora o pantalla necesita para conseguir el efecto deseado.

Por ejemplo, los membretes que marcan el comienzo de un elemento estructural pueden insertarse dentro de < >; los que marcan el final, dentro de </> (como es el caso en los sistemas SGML más usados). Así, la portada de un libro podría etiquetarse de la manera siguiente (adaptada de Sperberg-McQueen & Burnard 1990,74; para los nombres de los membretes sigo la traducción española [Sperberg-McQueen & Burnard 1992a]):

<portada>
<doc.autor> Félix G. Olmedo </>
<titulo.principal>Nebrija en Salamanca</>
<doc.pie.imprenta>
<doc.edit>Editora Nacional </>
<doc.ciudad>Madrid</>
<doc.fecha>1944</>
</doc.pie.imprenta>
</portada>

Declarados los elementos estructurales, la apariencia física de la portada impresa depende del diseñador del libro, quien especifica en el DTD el tamaño de la letra y la fuente tipográfica para cada elemento tanto como su localización en la página antes de proceder a la fotocomposición del libro.

Para el estudioso de la literatura, SGML permite guardar datos que se pierden en un lenguaje procedural. Por ejemplo, en textos impresos se ha utilizado la bastardilla para indicar muchos elementos distintos: títulos, extranjerismos, la resolución de abreviaturas, interpolaciones, palabras citadas, términos técnicos, etc. Mediante SGML cada uno de estos elementos lleva su propio membrete y por lo tanto puede encontrarse fácilmente en una búsqueda automatizada, a pesar de que su representación física en la pantalla o sobre la página impresa siga utilizando la bastardilla (ejemplo de Barnard et al. 1988, 28).


Subir


El SGML básico es un sistema adecuado no sólo para la inmensa mayoría de la producción editorial al uso sino también para la ofimática, pero no responde a las necesidades más complejas de la investigación científica. Por lo tanto pronto surgió la idea de utilizarlo como núcleo de un sistema que sí responde a esas necesidades. Es la génesis de la Text Encoding Initiative (TEI) (vid. Ide & Sperberg-McQueen 1990, Sperberg-McQueen & Burnard 1990, 1992a, 1992b, Sperberg-McQueen 1991), un proyecto patrocinado por la Association for Literary and Linguistic Computing, la Association for Computing in the Humanities y la Association for Computational Linguistics. Organizada en 1987 con apoyo de la National Endowment for the Humanities (EE.UU.), la TEI tiene «two closely related goals: to define a format for text interchange and to recommend specific practices in the encoding of new texts. The format and recommendations may be used for interchange, for local processing of any texts, or for creation of new texts» (Sperberg-McQueen & Burnard 1990, «Summary,» ix). De estas metas originales surgieron los siguientes principios basicos:

1.   Las normas intentan proporcionar un formato estandarizado para el intercambio de datos en investigaciones humanísticas.

2.   Las normas también intentan sugerir principios para la codificación de textos en el mismo formato.

3.   Las normas deberían:

a)   Definir una sintaxis adecuada al formato
b)   Definir un metalenguaje para la descripción de esquemas de codificación de texto
c)   Describir el nuevo formato y los esquemas representativos, ambos en ese metalenguaje y en prosa

4.   Las normas deberían proponer series de convenciones de código adaptables a varias aplicaciones.

5.   Las normas deberían incluir una mínima serie de convenciones para la codificación de nuevos textos en el mencionado formato.

6.   Las normas deben ser delineadas en grupos que se ocupen de:

a)   Documentación de texto

b)   Representación de texto

c)   Interpretación y análisis de texto

d)   Definición del metalenguaje y descripción de esquemas existentes y esquemas propuestos coordinados por una comisión directiva integrada por los representantes de las principales organizaciones patrocinadoras

Así la TEI debe especificar, entre otros muchos elementos, el juego de caracteres utilizado, la versión del texto transcrita (fuente original, autor y título, editor o transcriptor, pie de imprenta), la codificación de la descripción física del MS o edición impresa que contiene el texto (foliación, rúbricas, división de palabras, puntuación, peculiaridades tipográficas, enmendaciones y supresiones de los escribanos, interpolaciones, glosas, comentarios, citas, etc.), la estructura lógica del texto mismo (prefacio, dedicación, títulos, capítulos, estrofas, cantos, actos, escenas) y hasta rasgos asociados normalmente con el análisis e interpretación del texto (fonología, morfología, sintaxis, semántica, estilística, métrica, pragmática, estructura del discurso). El primer intento para especificar en detalle la codificación de estos elementos de acuerdo con los principios enunciados salió como borrador en 1990 (Sperberg-McQueen & Burnard 1990, traducido al español como Sperberg-McQueen & Burnard 1992a) y se ha elaborado ya versión definitiva de algunos de sus capítulos (Sperberg-McQueen & Burnard 1992b).

Las aplicaciones que pueden desarrollarse utilizando las normas de la TEI son múltiples:

Editar textos.

Editar, mostrar y relacionar textos en sistemas hipertextuales.

Dar formato e imprimir textos.

Cargar y descargar textos en bases de datos.

Investigar en textos el uso de palabras o frases.

Realizar análisis de contenido de los textos.

Comparar textos para ediciones críticas.

Escanear textos para indexación automática.

Analizar textos lingüística o estilísticamente.

Relacionar palabras del texto con imágenes de los objetos aludidos en un sistema hipertextual (adaptado de Sperberg-McQueen & Burnard 1992a, 2-3).

Francisco Marcos Marín estudia la codificación en el campo de los grandes corpus de la lengua española y algunos de los problemas que los estándares suscitan en el nivel más abstracto; aquí me limitaré a su aplicación a la ecdótica informatizada, es decir a la creación de un texto crítico legible por máquina a partir del análisis de todos los testigos conocidos de este texto, porque es éste el problema urgente tanto para lingüistas como para estudiantes de la literatura.


Subir


Ecdótica informatizada

Si hasta ahora el papel del ordenador en la crítica textual ha sido esencialmente el de facilitar la preparación de ediciones tradicionales sobre papel (vid. Marcos-Marín 199l), la gran novedad de la ecdótica en el siglo
XXI será la existencia de ediciones críticas electrónicas, concebidas desde el principio como productos informatizados. Modelos para tales ediciones existen ya en hipertexto, término definido por el inventor del concepto, Ted Nelson, como «escritura no secuencial» (1987, cap. 1, 17). Lo fundamental del hipertexto es la división de un texto (o varios) en secuencias cortas (nodos) vinculadas mediante relaciones establecidas ya de antemano, ya en el acto de consultar el fichero hipertextual. Una hiperedición, entonces, sería un conjunto de textos (e imágenes) organizado por el editor y acompañado de notas, comentario y aparato de variantes, como en una edición impresa común y corriente. A diferencia de la edición en papel, sin embargo, estos materiales editoriales quedarán invisibles al usuario mientras estudia el texto. Si no entiende una palabra, pone el cursor en ella y una tecla le da acceso a un diccionario electrónico abierto a la palabra indicada. Si no entiende una frase, toca otra tecla para hacer aparecer el comentario editorial a la misma. Si duda de la corrección de una lectura, una tercera tecla dará acceso al aparato de variantes. Si aún no está satisfecho, podrá pasar a la transcripción electrónica de los MSS o impresos en que se basa la edición y de allí a la imagen digitalizada de los mismos, todo esto, desde luego, en ventanitas que permitan ver todos estos materiales simultáneamente. El texto así viene a ser como el centro de un universo electrónico, conectado mediante una red de relaciones explícitas e implícitas a otros textos e imágenes.

Estos materiales estarán acompañados por una serie de herramientas informatizadas para agilizar su uso. La básica será un programa de análisis textual muy poderoso que permita: 1) la localización de todos las ocurrencias de una palabra determinada, de afijos derivacionales o inflexionales, de raíces, de morfemas (p. ej., todos los verbos en el imperfecto de subjuntivo); 2) la construcción de un thesaurus (p. ej., términos que denotan la muerte); 3) la contextualización de búsquedas según la palabra que preceda o siga; 4) la retroalimentación (feedback) para utilizar los resultados de una búsqueda como la matriz de otra; 5) la construcción de concordancias completas o parciales; 6) el uso de filtros para excluir o incluir ciertas materias (en una obra narrativa, p. ej., todos los casos de discurso directo) (ejemplos basados en Choueka, en prensa). Así la edición hipertextual viene a ser una combinación de textos, imágenes y el software necesario para manipularlos.

Se han hecho prototipos de ediciones hipertextuales, utilizando programas comerciales como HyperCard (Apple), Guide (OWL International) y ToolBook (IBM)o sistemas confeccionados ad hoc. El Dartmouth Dante Project ya permite acceso electrónico al texto de las obras del maestro florentino y a buena porción de los más de 600 comentarios escritos sobre ellas, desde el de Benvenuto da Imola en adelante (Hollander 1990). En nuestro campo Peter Batke (Johns Hopkins University) y Frank Dominguez (U. of North Carolina, Chapel Hill) han emprendido una edición de las Coplas por la muerte de su padre, de Jorge Manrique, utilizando ToolBook (comunicación personal).


Subir


Los programas actuales no son lo suficientemente poderosos como para poder dar resultados realmente aceptables, aunque se está trabajando intensamente en la teoría y la práctica del hipertexto para producir las herramientas (vid. Nielsen 1990). Entre tanto los filólogos podemos y debemos ir preparando los materiales necesarios, a saber, transcripciones rigurosas de los MSS e impresos a base de unas normas aceptadas y de uso general.

Hasta la fecha los sistemas de hipertexto han sido universos cerrados que sólo aceptan los datos que conforman a sus propias convenciones (vid. Meyrowitz 1989), lo cual quiere decir que no se ha tenido en cuenta el problema de la importación o exportación de un sistema hipertextual a otro; por lo tanto es poco menos que imposible hacer uso de trabajos hipertextuales anteriores o exportarlos a otros sistemas. Otra vez nos enfrentamos con el mismo problema: la necesidad de una codificación detallada y normalizada para establecer la posibilidad del intercambio y el empleo de los mismos materiales con sistemas diversos. De allí el interés en la TEI como norma hipertextual.

En lo que queda sólo pretendo esbozar —basándome esencialmente en los ejemplos de Sperberg-McQueen & Burnard 1990, 1992a— algunas de las consideraciones que habrá que tenerse en cuenta al idear las normas para la codificación de una edición hipertextual. En el modelo presentado aquí —de «capas» textuales relacionadas entre sí— queda patente que la codificación tendrá que abarcar no sólo los rasgos presentes en el texto mismo —la estructura física y semántica ya mencionada—, de los cuales hago caso omiso, sino las relaciones entre ese texto y otros. Así habrá que decidir si la codificación será interna —con todos los datos empotrados dentro del texto mismo— o externa —con una serie de ficheros externos ligados al texto mediante vínculos hipertextuales—. En principio la solución es fácil: la codificación interna debe utilizarse para representar elementos que existen en el texto, mientras la codificación externa debe utilizarse para ligar el texto a materiales extratextuales. Esto nos lleva al problema, relacionado de mantener en paralelo distintas versiones del mismo texto para poder verlas juntas en pantalla. Otra vez lo más fácil es el establecimiento de un sistema de referencias canónicas que comparten todas las versiones, v.g., como el de partida, título y ley de las Siete partidas. Ahora, para hilar más fino sería necesaria relacionar elementos textuales más pequeños mediante vínculos explícitos entre los textos paralelos, establecidas con el uso de membretes del tipo < ancla >, que, etiquetados explícitamente con un número de identificación, relacionan un pasaje determinado en un texto con el mismo pasaje en otra versión (para otras posibilidades vid. Sperberg-McQueen & Burnard 1990, 122-23; ejemplos concretos, 219-33 [omitido de Sperberg-McQueen & Burnard 1992a]).

Ahora, sencillamente mantener el paralelismo entre las diferentes versiones no es suficiente. Hay que señalar las relaciones significativas también, o sea, indicar las lecturas o variantes de los testigos que configuran el texto crítico. Así, la TEI propone una serie de membretes para relacionar el texto crítico con el aparato de variantes, en una aproximación al aparato tradicional impreso. Este aparato se encierra dentro del membrete <ap>, que a su vez contiene el membrete <lem> para indicar el lema del texto base y <lec> para la lección de cada testigo. Para indicar que un testigo es lacunario se puede utilizar el membrete <lacuna>, mientras cualquier otra caracterización de la lectura (detalles paleográficos, ortografía original, legibilidad, tipo de variante, etc.) debería incluirse dentro de un membrete <testigo.detalle>. Cuando se trata de una variante no normalizada del testigo, la cita se hará mediante la «cita-vínculo» (vid. Nelson 1987, cap. 2, 32-40). Es decir que para evitar erratas se establecerá una relación con el testigo ya transcrito en vez de copiar la variante de nuevo.

Para indicar los distintos tipos de comentario textual que suelen acompañar el texto crítico se emplea el membrete <nota> debidamente calificado para indicar el tipo de que se trata (geográfica, biográfica, léxica, sintáctica, histórica) y su autoría. Las relaciones con otros textos (fuentes o paralelos) se podrían señalar mediante los membretes < texto.fuente > y < texto.paralelo > vinculados a un fichero que contiene los textos en cuestión. Así se podría verificar en dos ventanas paralelas la relación exacta entre los dos textos.

La primera versión de la TEI no ha hecho más que esbozar algunas soluciones tentativas a estos problemas (vid. Sperberg- McQueen & Burnard 1990, 108-23 = 1992a, 94-102) y es constante la muletilla «hay que trabajar más en esta área» (Sperberg-McQueen & Burnard 1992a, 103).


Subir


Finalmente, para facilitar la codificación de los textos según el esquema presentado aquí, hace falta software diseñado específicamente a propósito que permite la inserción de los membretes sin tener que meterlos todos a mano y que a la vez vigila la corrección de los mismos. Sería capaz, por lo tanto, de analizar la secuencia y jerarquización de los membretes para advertir al usuario de posibles errores de codificación. Sin un programa de este tipo el proceso de codificación será tan laborioso que sólo se hará para los textos más importantes, o sólo se captarán los rasgos más elementales. De la misma manera, el usuario de la edición crítica necesita un programa que sepa interpretar los membretes utilizados para así aislar información de un tipo determinado y presentarlo de manera legible. Con un software adecuado, por ejemplo, el usuario podría ver sólo los pasajes que llevan comentarios sintácticos o léxicos, o los que han sido comentados por un crítico determinado. Una edición hipertextual así ofrece no sólo el texto editado sino otros muchos elementos, elementos que pueden resaltarse (literal y figuradamente) para ofrecer nuevas visiones y versiones del texto. En una edición hipertextual del Poema del Cid, por ejemplo, se podrían recoger no sólo todos los comentarios hechos al poema por sus diversos editores sino también todas las conjeturas textuales que ha recibido. Sería fácil —y enormemente instructivo— confrontar la edición de Menéndez Pidal con la de Colin Smith o seguir los cambios en la interpretación de un pasaje desde las ediciones decimonónicas de Janer, Damas Hinard, Vollmoller, Bello, Restori, Lidforss y Huntington hasta las más recientes de Garci-Gómez, Michael o Smith. La edición hipertextual, probablemente en el formato CD-ROM, así reunirá no sólo el texto y sus elementos constitutivos sino toda una serie de materiales relacionados, no un libro informatizado sino una biblioteca informatizada. Tales bibliotecas informatizadas ofrecen la posibilidad de una revolución en el acceso a los textos que contienen, una revolución no sólo cualitativa, sino social. En la medida que estas ediciones contienen todos los materiales básicos —MSS, texto, comentarios—, se podrán estudiar las obras fundamentales de la literatura eficazmente en cualquier parte del mundo, librándose el erudito y crítico de la necesidad de viajar a las grandes bibliotecas y permitiendo así una democratización radical del mundo de la erudición.

Desgraciadamente, el milenio hipertextual tardará todavía algunos años en llegar. Entre tanto, como paso mínimo hacia el empleo sistemático de las normas de la TEI que lo posibilitarán, los editores de textos deben siempre preparar una transcripción electrónica del texto que pretenden editar, por lo menos del testigo que va a servir de base a la edición. En esta transcripción se debe emplear un juego de caracteres estándar (ANSI X14-1986, que corresponde al juego ASCII de 128 caracteres; o ISO 646, que contiene 82 caracteres; vid. Sperberg-McQueen & Burnard 1992a, 3536) y en lo posible seguir las normas de uso. En el caso de los textos medievales españoles, por ejemplo, éstas serían, hoy por hoy, las de Madison (Mackenzie 1984).


Subir


Bibliografía

ANSI (American National Standards Institute), 1986: ANSI X3.4-1986. American National Standard for Information Systems —Coded Character Sets— 7-bit American National Standard Code for Information Interchange (7-bit ASCII). [New York]: ANSI.

BARNARD, DAVID, T., Cheryl A. Fraser & George M. LOGAN, 1988: «Generalized Markup for Literary Texts». Literary & Linguistic Computing, 3: 26-3 1.

BARRET, Edward, ed., 1989: The Society of Text. Hypertext, Hyper-media, and the Social Construction of Information, Cambridge, Mass.: MIT Press.

CHOUEKA, Yaacov. En prensa. «Responsa: A Full-Text Retrieval System with Linguistic Components for Large Corpora». En: Computational Lexicology and Lexicography, ed. A. Zampolli. Pisa: Giardini.

COOMBS, James H., ALLEN H. RENEAR & Steven J. DEROSE, , 1988: «Markup Systems and the Future of Scholarly Text Processing». Communications of the ACM, 30 (11):933-47.

COVER, ROBIN, Nicholas DUNCAN & David T. BARNARD, 1990: Bibliography on Structured Text. Technical Report 90-281. Kingston, Ont.: Department of Computing & Information Science, Queen's University.

FAULHABER, Charles B., 1991b: «Textual Criticism in the 21st Century». Romance Philology, 45: 123-48.

HOLLANDER, Robert, 1990: «The Dartmouth Dante Project». Insieme-Together (San Francisco, Istituto Italiano di Cultura) 5 (3-4): 10-12.

IDE, N. M., & C.M. SPERBERG-McQUEEN, 1990: «A Standard Encoding Scheme for Machine- Readable Texts», en Computers in Literary and Lingüistic Research: Literary and Lingüistic Computing 1988: Proceedings of the Fifteenth International Conference, Jerusalem, 5- 9 juin 1988 = Actes de la XV Conference Internationale, Proceedings of the International Conferences of the Association for Literary and Linguistic Computing, 3. Travaux de Linguistique Quantitative, 44. Ed. Yaacov Chouka. Paris: Champion-Slatkine, 215-32.

ISO (International Organization for Standardization), 1988. ISO 8879-1986 (E). Information processing -Text and Office Systems- Standard Generalized Markup Language (SGML).[Geneva]: ISO.

ISO (International Organization for Standardization), 1988: ISO 8879-1986/AI:1988 (E). Information processing -Text and Office Systems- Standard Generalized Markup Language (SGML), Amendment 1. [Geneva]: ISO.

LOGAN, GEORGE M., David T. BARNARD & Robert G. CRAWFORD, 1986: «ComputerBased Publication of Critical Editions. Some General Considerations and a Prototype». Conference pre-prints. Computers and the Humanities. Today's Research Tomorrow's Teaching, 318-26. Toronto: University of Toronto.

MACKENZIE, David, 1986: A Manual of Manuscript Transcription for the Dictionary of the Old Spanish Language, 4.ª ed. de Victoria A. Burrus. Madison: Hispanic Seminary of Medieval Studies.

MARCOS-MARÍN, Francisco, 1991: «Computers and Text Editing: A Review of Tools, an Introduction to UNITE and Some Observations concerning its Application to Old Spanish Texts», RPh 45 (1991): 123-48.

MEYROWITZ, Norman, 1989: «The Missing Link: Why we're All Doing Hypertext Wrong». En Barrett, 1989, 107-14.

NELSON, Theodor Holm, 1987: Literary Machines. The Report on, and of, Project Xanadu Concerning Word Processing, Electronic Publishing, Hypertext, Thinkertoys, Tomorrow's Intellectual Revolution, and Certain Other Topics including Knowledge, Education and Freedom Ed. 87. 1. San Antonio, Tex: Autor.


NIELSEN, Jakob, 1990: Hypertext & Hypermedia. San Diego, Calif.: Academic Press.

SMITH, Joan M., & Robert STUTELY, 1988: SGML: The User's Guide to ISO 8879. Chichester: Ellis Horwood.

SPERBERG-MCQUEEN, C.M., 199 1: «Text in the Electronic Age: Textual Study and Text Encoding, with Examples from Medieval Texts», Literary and Linguistic Computing, 6: 34-46.

SPERBERG-MCQUEEN, C. MICHAEL & LOU BURNARD, eds., 1990: Guidelines for the Encoding and Interchange of Machine-Readable Texts. Document Number: TEI P 1. Draft: Version 1.0. N.p.: The Association for Computers and the Humanities (ACH); The Association for Computational Linguistics (ACL); The Association for Literary and Linguistic Computing (ALLC).

__________, 1992a: Manual para la codificación e intercambio de textos informatizados. Normas de la Text Encoding Initiative. Edición española a cargo del Area de Industrias de la Lengua (Sociedad Estatal del V Centenario). Director: Francisco Marcos Marín. Traducción: Verónica Zumárraga y Marcela Tabanera. Madrid: [Sociedad Estatal Quinto Centenario]. [Es la trad. de la versión 1.01.

__________, 1992b: Guidelines for Electronic Text Encoding and Interchange. TEI P2, Chapters 21-22, 34. Draft Version 2. N.p.: The Association for Computers and the Humanities (ACH): The Association for Computational Linguistics (ACL); The Association for Literary and Linguistic Computing (ALLC). [El cap. 21 trata los caracteres y los juegos de caracteres; el cap. 22, encabezamiento de un texto; el cap. 34, el juego de membretes necesario para la transcripción de los textos orales].


Subir


Notas:
  1. Sigo estrechamente los materiales presentados en Faulhaber, 1991. También quisiera reconocer la ayuda de C. M. Sperberg-McQueen, de la Text Encoding Initiative, y de Francisco Marcos Marín, por proporcionarme la traducción española de las normas de la TEI (Sperberg-McQueen y Burnard, 1992a).Volver al texto
 

Subir
| La lengua española y las nuevas tecnologías |

| Portada del CVC |
| Obras de referencia | Actos culturales | Foros | Aula de lengua | Oteador |
| Rinconete | El trujamán |

| Enviar comentarios |

Centro Virtual Cervantes
© Instituto Cervantes (España), 2003-. Reservados todos los derechos.