|
|
La Text
Encoding Initiative y su aplicación a la codificación textual y explotación1
Charles B. Faulhaber. Universidad de California, Berkeley
|
|
Desde el comienzo de los trabajos informatizados sobre textos literarios y lingüísticos
se ha sentido la necesidad de codificar los mismos para facilitar su uso. En un principio
esto significó el empleo de los juegos de caracteres del ordenador al uso, sean cuales
fueran sus fallas. Así los primeros textos electrónicos, de los años 50 y 60,
utilizaban sólo mayúsculas y unos cuantos signos de puntuación. Con tal sistema era
imposible representar todas las características de los textos. La imposición del código
ASCII (American Standard Code for Information Interchange) de 128 caracteres alivió el
problema hasta cierto punto, pero la codificación de un texto va mucho más allá de la
mera secuencia de los caracteres de que se compone. Por lo tanto en diversos campos se han
ideado normas de muy diferentes tipos para responder a los intereses y necesidades de
distintas clases de investigación. Esta multiplicidad de normas acarrea una consecuencia
ineluctable: rinde imposible el uso de una misma transcripción por propósitos diferentes
o, visto desde otro punto de vista, imposibilita el empleo de una herramienta
informatizada v.g., un programa para el análisis y recuperación de textos
para textos transcritos según normas diferentes. Esto significa que hay que modificar la
herramienta para acomodarla a textos transcritos con normas diferentes o modificar los
textos para adecuarlos al programa. La solución ideal es una norma lo suficientemente
flexible y a la vez generalizada para poder acomodar los intereses de grupos de
investigadores muy diversos estudiantes de la semántica y la fonética, de lexis,
de la retórica, de lingüística computacional, de análisis discursivo y un largo
etcétera y para fomentar el desarrollo de herramientas de amplia aplicación a una
gama de textos de distintos tipos y en lenguas antiguas y modernas. |
|
En el campo de los estudios medievales hispánicos
están bastante extendidas las llamadas «normas de Madison», ideadas originalmente para
suministrar un corpus de textos como base del Dictionary of the Old Spanish Language
(vid. Mackenzie, 1986 y la ponencia del mismo en este congreso). Sin embargo,
muchos editores de textos antiguos se niegan a utilizarlas, aun para la transcripción
original del MS base, porque no entienden la utilidad a los estudios filológicos en
general de disponer de un corpus de textos transcritos según unos patrones fijos.
Aunque las normas de Madison han hecho un servicio notable en sus casi veinte años de
vida, y existe un corpus textual de más de 100 millones de caracteres transcrito de
acuerdo con ellas, no responden a todas las necesidades actuales. Si su empleo se extiende
a los textos modernos, habrá que enmendarlas para indicar, entre otras cosas, los acentos
diacríticos; pero su falla principal es que no tienen en cuenta la notación de los
aspectos formales de un texto: la división en libros o capítulos, la identificación de
prólogos, introducciones, dedicatorias, epílogos, índices, etc. La falta de tal
notación no debe sorprender, dado el enfoque lexicográfico original y, sobre todo, dado
el hecho de que las normas son anteriores al concepto de texto estructurado (structured
text; vid. Cover et al., 1990), la representación de todos los elementos
textuales mediante una notación explícita. En este respecto han sido superadas por el Standard
Generalized Markup Language (SGML) «lenguaje estándar generalizado de marcación» (vid.
ISO 1986, 1988, Smith 1987, Smith & Stutely 1988), basado en GML, el Generalized
Markup Language inventado por IBM. SGML fue ideado originalmente como herramienta para las
industrias editorial e informática para formalizar la descripción de documentos de
cualquier tipo. Sus propiedades permiten la especificación de los elementos textuales de
manera explícita y sin posibilidad de ambigüedad, de tal forma que ese mismo elemento
puede transmitirse de un sistema de tratamiento de documentos a otro, aislarse para las
necesidades del análisis textual o formatearse para la fotocomposición. SGML no es una
lengua procedural sino declarativa. Es decir que en vez de emitir una serie de
comandos explícitos para sangrar un párrafo, SGML sencillamente declara el comienzo del
párrafo con un membrete estándar: <par>. Ese membrete y todos los demás que hacen
falta para documentar la estructura del texto en cuestión se describen explícitamente en
una «definición de tipo de documento» (DTD) colocado al comienzo del texto. A su vez el
DTD se define de acuerdo con las convenciones de SGML, convenciones que permiten una
descripción precisa y una enumeración de la estructura lógica y semántica del texto.
Dentro de estas convenciones se pueden llevar a cabo diversos tipos de marcación, pero
por lo general todos estipularán que cada elemento estructural del documento se delimite
por dos membretes, uno inicial y otro final. Cuando el documento se formatea para una
impresora o pantalla determinada, estos membretes se convierten en los comandos
específicos que dicha impresora o pantalla necesita para conseguir el efecto deseado.
Por ejemplo, los membretes que marcan el comienzo de un elemento estructural pueden
insertarse dentro de < >; los que marcan el final, dentro de </> (como es el
caso en los sistemas SGML más usados). Así, la portada de un libro podría etiquetarse
de la manera siguiente (adaptada de Sperberg-McQueen & Burnard 1990,74; para los
nombres de los membretes sigo la traducción española [Sperberg-McQueen & Burnard
1992a]):
<portada>
<doc.autor> Félix G. Olmedo </>
<titulo.principal>Nebrija en Salamanca</>
<doc.pie.imprenta>
<doc.edit>Editora Nacional </>
<doc.ciudad>Madrid</>
<doc.fecha>1944</>
</doc.pie.imprenta>
</portada>
Declarados los elementos estructurales, la
apariencia física de la portada impresa depende del diseñador del libro, quien
especifica en el DTD el tamaño de la letra y la fuente tipográfica para cada elemento
tanto como su localización en la página antes de proceder a la fotocomposición del
libro.
Para el estudioso de la literatura, SGML permite guardar datos que se pierden en un
lenguaje procedural. Por ejemplo, en textos impresos se ha utilizado la bastardilla para
indicar muchos elementos distintos: títulos, extranjerismos, la resolución de
abreviaturas, interpolaciones, palabras citadas, términos técnicos, etc. Mediante SGML
cada uno de estos elementos lleva su propio membrete y por lo tanto puede encontrarse
fácilmente en una búsqueda automatizada, a pesar de que su representación física en la
pantalla o sobre la página impresa siga utilizando la bastardilla (ejemplo de Barnard et
al. 1988, 28). |
|
El SGML básico es un sistema adecuado no sólo para
la inmensa mayoría de la producción editorial al uso sino también para la ofimática,
pero no responde a las necesidades más complejas de la investigación científica. Por lo
tanto pronto surgió la idea de utilizarlo como núcleo de un sistema que sí responde a
esas necesidades. Es la génesis de la Text Encoding Initiative (TEI) (vid.
Ide & Sperberg-McQueen 1990, Sperberg-McQueen & Burnard 1990, 1992a, 1992b,
Sperberg-McQueen 1991), un proyecto patrocinado por la Association for Literary and
Linguistic Computing, la Association for Computing in the Humanities y la Association for
Computational Linguistics. Organizada en 1987 con apoyo de la National Endowment for the
Humanities (EE.UU.), la TEI tiene «two closely related goals: to define a format for text
interchange and to recommend specific practices in the encoding of new texts. The format
and recommendations may be used for interchange, for local processing of any texts, or for
creation of new texts» (Sperberg-McQueen & Burnard 1990, «Summary,» ix). De estas
metas originales surgieron los siguientes principios basicos:
1. Las normas intentan
proporcionar un formato estandarizado para el intercambio de datos en investigaciones
humanísticas.
2. Las normas también intentan sugerir principios para la codificación
de textos en el mismo formato.
3. Las normas deberían:
a) Definir una sintaxis
adecuada al formato
b) Definir un metalenguaje para la descripción de esquemas de
codificación de texto
c) Describir el nuevo formato y los esquemas representativos,
ambos en ese metalenguaje y en prosa
4. Las normas deberían proponer
series de convenciones de código adaptables a varias aplicaciones.
5. Las normas deberían incluir una mínima serie de convenciones para la
codificación de nuevos textos en el mencionado formato.
6. Las normas deben ser delineadas en grupos que se ocupen de:
a) Documentación de
texto
b) Representación de texto
c) Interpretación y análisis de texto
d) Definición del metalenguaje y descripción de esquemas
existentes y esquemas propuestos coordinados por una comisión directiva integrada por los
representantes de las principales organizaciones patrocinadoras
Así la TEI debe especificar, entre otros muchos
elementos, el juego de caracteres utilizado, la versión del texto transcrita (fuente
original, autor y título, editor o transcriptor, pie de imprenta), la codificación de la
descripción física del MS o edición impresa que contiene el texto (foliación,
rúbricas, división de palabras, puntuación, peculiaridades tipográficas,
enmendaciones
y supresiones de los escribanos, interpolaciones, glosas, comentarios, citas, etc.), la
estructura lógica del texto mismo (prefacio, dedicación, títulos, capítulos, estrofas,
cantos, actos, escenas) y hasta rasgos asociados normalmente con el análisis e
interpretación del texto (fonología, morfología, sintaxis, semántica, estilística,
métrica, pragmática, estructura del discurso). El primer intento para especificar en
detalle la codificación de estos elementos de acuerdo con los principios enunciados
salió como borrador en 1990 (Sperberg-McQueen & Burnard 1990, traducido al español
como Sperberg-McQueen & Burnard 1992a) y se ha elaborado ya versión definitiva de
algunos de sus capítulos (Sperberg-McQueen & Burnard 1992b).
Las aplicaciones que pueden desarrollarse utilizando las normas de la TEI son múltiples:
Editar textos.
Editar, mostrar y relacionar textos en sistemas hipertextuales.
Dar formato e imprimir textos.
Cargar y descargar textos en bases de datos.
Investigar en textos el uso de palabras o frases.
Realizar análisis de contenido de los textos.
Comparar textos para ediciones críticas.
Escanear textos para indexación automática.
Analizar textos lingüística o estilísticamente.
Relacionar palabras del texto con imágenes de los objetos aludidos en un sistema
hipertextual (adaptado de Sperberg-McQueen & Burnard 1992a, 2-3).
Francisco Marcos Marín estudia la codificación
en el campo de los grandes corpus de la lengua española y algunos de los problemas que
los estándares suscitan en el nivel más abstracto; aquí me limitaré a su aplicación a
la ecdótica informatizada, es decir a la creación de un texto crítico legible por
máquina a partir del análisis de todos los testigos conocidos de este texto, porque es
éste el problema urgente tanto para lingüistas como para estudiantes de la literatura. |
|
Ecdótica informatizada
Si hasta ahora el papel del ordenador en la crítica textual ha sido esencialmente el de
facilitar la preparación de ediciones tradicionales sobre papel (vid. Marcos-Marín
199l), la gran novedad de la ecdótica en el siglo XXI será la existencia de ediciones
críticas electrónicas, concebidas desde el principio como productos informatizados.
Modelos para tales ediciones existen ya en hipertexto, término definido por el
inventor del concepto, Ted Nelson, como «escritura no secuencial» (1987, cap. 1, 17). Lo
fundamental del hipertexto es la división de un texto (o varios) en secuencias cortas
(nodos) vinculadas mediante relaciones establecidas ya de antemano, ya en el acto de
consultar el fichero hipertextual. Una hiperedición, entonces, sería un conjunto
de textos (e imágenes) organizado por el editor y acompañado de notas, comentario y
aparato de variantes, como en una edición impresa común y corriente. A diferencia de la
edición en papel, sin embargo, estos materiales editoriales quedarán invisibles al
usuario mientras estudia el texto. Si no entiende una palabra, pone el cursor en ella y
una tecla le da acceso a un diccionario electrónico abierto a la palabra indicada. Si no
entiende una frase, toca otra tecla para hacer aparecer el comentario editorial a la
misma. Si duda de la corrección de una lectura, una tercera tecla dará acceso al aparato
de variantes. Si aún no está satisfecho, podrá pasar a la transcripción electrónica
de los MSS o impresos en que se basa la edición y de allí a la imagen digitalizada de
los mismos, todo esto, desde luego, en ventanitas que permitan ver todos estos materiales
simultáneamente. El texto así viene a ser como el centro de un universo electrónico,
conectado mediante una red de relaciones explícitas e implícitas a otros textos e
imágenes.
Estos materiales estarán acompañados por una serie de herramientas informatizadas para
agilizar su uso. La básica será un programa de análisis textual muy poderoso que
permita: 1) la localización de todos las ocurrencias de una palabra determinada, de
afijos derivacionales o inflexionales, de raíces, de morfemas (p. ej., todos los verbos
en el imperfecto de subjuntivo); 2) la construcción de un thesaurus (p. ej.,
términos que denotan la muerte); 3) la contextualización de búsquedas según la palabra
que preceda o siga; 4) la retroalimentación (feedback) para utilizar los
resultados de una búsqueda como la matriz de otra; 5) la construcción de concordancias
completas o parciales; 6) el uso de filtros para excluir o incluir ciertas materias (en
una obra narrativa, p. ej., todos los casos de discurso directo) (ejemplos basados en
Choueka, en prensa). Así la edición hipertextual viene a ser una combinación de textos,
imágenes y el software necesario para manipularlos.
Se han hecho prototipos de ediciones hipertextuales, utilizando programas comerciales como
HyperCard (Apple), Guide (OWL International) y ToolBook (IBM)o sistemas confeccionados ad
hoc. El Dartmouth Dante Project ya permite acceso electrónico al texto de las obras
del maestro florentino y a buena porción de los más de 600 comentarios escritos sobre
ellas, desde el de Benvenuto da Imola en adelante (Hollander 1990). En nuestro campo Peter
Batke (Johns Hopkins University) y Frank Dominguez (U. of North Carolina, Chapel Hill) han
emprendido una edición de las Coplas por la muerte de su padre, de Jorge Manrique,
utilizando ToolBook (comunicación personal). |
|
Los programas actuales no son lo suficientemente
poderosos como para poder dar resultados realmente aceptables, aunque se está trabajando
intensamente en la teoría y la práctica del hipertexto para producir las herramientas (vid.
Nielsen 1990). Entre tanto los filólogos podemos y debemos ir preparando los
materiales necesarios, a saber, transcripciones rigurosas de los MSS e impresos a base de
unas normas aceptadas y de uso general.
Hasta la fecha los sistemas de hipertexto han sido universos cerrados que sólo aceptan
los datos que conforman a sus propias convenciones (vid. Meyrowitz 1989), lo cual
quiere decir que no se ha tenido en cuenta el problema de la importación o exportación
de un sistema hipertextual a otro; por lo tanto es poco menos que imposible hacer uso de
trabajos hipertextuales anteriores o exportarlos a otros sistemas. Otra vez nos
enfrentamos con el mismo problema: la necesidad de una codificación detallada y
normalizada para establecer la posibilidad del intercambio y el empleo de los mismos
materiales con sistemas diversos. De allí el interés en la TEI como norma hipertextual.
En lo que queda sólo pretendo esbozar basándome esencialmente en los ejemplos de
Sperberg-McQueen & Burnard 1990, 1992a algunas de las consideraciones que habrá
que tenerse en cuenta al idear las normas para la codificación de una edición
hipertextual. En el modelo presentado aquí de «capas» textuales relacionadas
entre sí queda patente que la codificación tendrá que abarcar no sólo los rasgos
presentes en el texto mismo la estructura física y semántica ya mencionada,
de los cuales hago caso omiso, sino las relaciones entre ese texto y otros. Así habrá
que decidir si la codificación será interna con todos los datos empotrados dentro
del texto mismo o externa con una serie de ficheros externos ligados al texto
mediante vínculos hipertextuales. En principio la solución es fácil: la
codificación interna debe utilizarse para representar elementos que existen en el texto,
mientras la codificación externa debe utilizarse para ligar el texto a materiales
extratextuales. Esto nos lleva al problema, relacionado de mantener en paralelo distintas
versiones del mismo texto para poder verlas juntas en pantalla. Otra vez lo más fácil es
el establecimiento de un sistema de referencias canónicas que comparten todas las
versiones, v.g., como el de partida, título y ley de las Siete partidas. Ahora,
para hilar más fino sería necesaria relacionar elementos textuales más pequeños
mediante vínculos explícitos entre los textos paralelos, establecidas con el uso de
membretes del tipo < ancla >, que, etiquetados explícitamente con un número de
identificación, relacionan un pasaje determinado en un texto con el mismo pasaje en otra
versión (para otras posibilidades vid. Sperberg-McQueen & Burnard 1990,
122-23; ejemplos concretos, 219-33 [omitido de Sperberg-McQueen & Burnard 1992a]).
Ahora, sencillamente mantener el paralelismo entre las diferentes versiones no es
suficiente. Hay que señalar las relaciones significativas también, o sea, indicar las
lecturas o variantes de los testigos que configuran el texto crítico. Así, la TEI
propone una serie de membretes para relacionar el texto crítico con el aparato de
variantes, en una aproximación al aparato tradicional impreso. Este aparato se encierra
dentro del membrete <ap>, que a su vez contiene el membrete <lem> para indicar
el lema del texto base y <lec> para la lección de cada testigo. Para indicar que un
testigo es lacunario se puede utilizar el membrete <lacuna>, mientras cualquier otra
caracterización de la lectura (detalles paleográficos, ortografía original,
legibilidad, tipo de variante, etc.) debería incluirse dentro de un membrete
<testigo.detalle>. Cuando se trata de una variante no normalizada del testigo, la
cita se hará mediante la «cita-vínculo» (vid. Nelson 1987, cap. 2, 32-40). Es
decir que para evitar erratas se establecerá una relación con el testigo ya transcrito
en vez de copiar la variante de nuevo.
Para indicar los distintos tipos de comentario textual que suelen acompañar el texto
crítico se emplea el membrete <nota> debidamente calificado para indicar el tipo de
que se trata (geográfica, biográfica, léxica, sintáctica, histórica) y su autoría.
Las relaciones con otros textos (fuentes o paralelos) se podrían señalar mediante los
membretes < texto.fuente > y < texto.paralelo > vinculados a un fichero que
contiene los textos en cuestión. Así se podría verificar en dos ventanas paralelas la
relación exacta entre los dos textos.
La primera versión de la TEI no ha hecho más que esbozar algunas soluciones tentativas a
estos problemas (vid. Sperberg- McQueen & Burnard 1990, 108-23 = 1992a, 94-102)
y es constante la muletilla «hay que trabajar más en esta área» (Sperberg-McQueen
& Burnard 1992a, 103). |
|
Finalmente, para facilitar la codificación de los
textos según el esquema presentado aquí, hace falta software diseñado
específicamente a propósito que permite la inserción de los membretes sin tener que
meterlos todos a mano y que a la vez vigila la corrección de los mismos. Sería capaz,
por lo tanto, de analizar la secuencia y jerarquización de los membretes para advertir al
usuario de posibles errores de codificación. Sin un programa de este tipo el proceso de
codificación será tan laborioso que sólo se hará para los textos más importantes, o
sólo se captarán los rasgos más elementales. De la misma manera, el usuario de la
edición crítica necesita un programa que sepa interpretar los membretes utilizados para
así aislar información de un tipo determinado y presentarlo de manera legible. Con un software
adecuado, por ejemplo, el usuario podría ver sólo los pasajes que llevan comentarios
sintácticos o léxicos, o los que han sido comentados por un crítico determinado. Una
edición hipertextual así ofrece no sólo el texto editado sino otros muchos elementos,
elementos que pueden resaltarse (literal y figuradamente) para ofrecer nuevas visiones y
versiones del texto. En una edición hipertextual del Poema del Cid, por ejemplo,
se podrían recoger no sólo todos los comentarios hechos al poema por sus diversos
editores sino también todas las conjeturas textuales que ha recibido. Sería fácil
y enormemente instructivo confrontar la edición de Menéndez Pidal con la de
Colin Smith o seguir los cambios en la interpretación de un pasaje desde las ediciones
decimonónicas de Janer, Damas Hinard, Vollmoller, Bello, Restori, Lidforss y Huntington
hasta las más recientes de Garci-Gómez, Michael o Smith. La edición hipertextual,
probablemente en el formato CD-ROM, así reunirá no sólo el texto y sus elementos
constitutivos sino toda una serie de materiales relacionados, no un libro informatizado
sino una biblioteca informatizada. Tales bibliotecas informatizadas ofrecen la posibilidad
de una revolución en el acceso a los textos que contienen, una revolución no sólo
cualitativa, sino social. En la medida que estas ediciones contienen todos los materiales
básicos MSS, texto, comentarios, se podrán estudiar las obras fundamentales
de la literatura eficazmente en cualquier parte del mundo, librándose el erudito y
crítico de la necesidad de viajar a las grandes bibliotecas y permitiendo así una
democratización radical del mundo de la erudición.
Desgraciadamente, el milenio hipertextual tardará todavía algunos años en llegar. Entre
tanto, como paso mínimo hacia el empleo sistemático de las normas de la TEI que lo
posibilitarán, los editores de textos deben siempre preparar una transcripción
electrónica del texto que pretenden editar, por lo menos del testigo que va a servir de
base a la edición. En esta transcripción se debe emplear un juego de caracteres
estándar (ANSI X14-1986, que corresponde al juego ASCII de 128 caracteres; o ISO 646, que
contiene 82 caracteres; vid. Sperberg-McQueen & Burnard 1992a, 3536) y en lo posible
seguir las normas de uso. En el caso de los textos medievales españoles, por ejemplo,
éstas serían, hoy por hoy, las de Madison (Mackenzie 1984). |
|
BibliografíaANSI (American National Standards Institute), 1986: ANSI
X3.4-1986. American National Standard for Information Systems Coded Character
Sets 7-bit American National Standard Code for Information Interchange (7-bit
ASCII). [New York]: ANSI.
BARNARD, DAVID, T., Cheryl A. Fraser & George M. LOGAN, 1988: «Generalized Markup for
Literary Texts». Literary & Linguistic Computing, 3: 26-3 1.
BARRET, Edward, ed., 1989: The Society of Text. Hypertext, Hyper-media, and the Social
Construction of Information, Cambridge, Mass.: MIT Press.
CHOUEKA, Yaacov. En prensa. «Responsa: A Full-Text Retrieval System with Linguistic
Components for Large Corpora». En: Computational Lexicology and Lexicography, ed.
A. Zampolli. Pisa: Giardini.
COOMBS, James H., ALLEN H. RENEAR & Steven J. DEROSE, , 1988: «Markup Systems and the
Future of Scholarly Text Processing». Communications of the ACM, 30 (11):933-47.
COVER, ROBIN, Nicholas DUNCAN & David T. BARNARD, 1990: Bibliography on Structured
Text. Technical Report 90-281. Kingston, Ont.: Department of Computing &
Information Science, Queen's University.
FAULHABER, Charles B., 1991b: «Textual Criticism in the 21st Century». Romance
Philology, 45: 123-48.
HOLLANDER, Robert, 1990: «The Dartmouth Dante Project». Insieme-Together (San
Francisco, Istituto Italiano di Cultura) 5 (3-4): 10-12.
IDE, N. M., & C.M. SPERBERG-McQUEEN, 1990: «A Standard Encoding Scheme for Machine-
Readable Texts», en Computers in Literary and Lingüistic Research: Literary and
Lingüistic Computing 1988: Proceedings of the Fifteenth International Conference,
Jerusalem, 5- 9 juin 1988 = Actes de la XV Conference Internationale, Proceedings of
the International Conferences of the Association for Literary and Linguistic Computing, 3.
Travaux de Linguistique Quantitative, 44. Ed. Yaacov Chouka. Paris: Champion-Slatkine,
215-32.
ISO (International Organization for Standardization), 1988. ISO 8879-1986 (E).
Information processing -Text and Office Systems- Standard Generalized Markup Language (SGML).[Geneva]:
ISO.
ISO (International Organization for Standardization), 1988: ISO 8879-1986/AI:1988 (E).
Information processing -Text and Office Systems- Standard Generalized Markup Language
(SGML), Amendment 1. [Geneva]: ISO.
LOGAN, GEORGE M., David T. BARNARD & Robert G. CRAWFORD, 1986: «ComputerBased
Publication of Critical Editions. Some General Considerations and a Prototype».
Conference pre-prints. Computers and the Humanities. Today's Research Tomorrow's
Teaching, 318-26. Toronto: University of Toronto.
MACKENZIE, David, 1986: A Manual of Manuscript Transcription for the Dictionary of the
Old Spanish Language, 4.ª ed. de Victoria A. Burrus. Madison: Hispanic Seminary of
Medieval Studies.
MARCOS-MARÍN, Francisco, 1991: «Computers and Text Editing: A Review of Tools, an
Introduction to UNITE and Some Observations concerning its Application to Old
Spanish Texts», RPh 45 (1991): 123-48.
MEYROWITZ, Norman, 1989: «The Missing Link: Why we're All Doing Hypertext Wrong». En
Barrett, 1989, 107-14.
NELSON, Theodor Holm, 1987: Literary Machines. The Report on, and of, Project Xanadu
Concerning Word Processing, Electronic Publishing, Hypertext, Thinkertoys, Tomorrow's
Intellectual Revolution, and Certain Other Topics including Knowledge, Education and
Freedom Ed. 87. 1. San Antonio, Tex: Autor.
NIELSEN, Jakob, 1990: Hypertext
& Hypermedia. San Diego, Calif.: Academic Press.
SMITH, Joan M., & Robert STUTELY, 1988: SGML: The User's Guide to ISO 8879. Chichester:
Ellis Horwood.
SPERBERG-MCQUEEN, C.M., 199 1: «Text in the Electronic Age: Textual Study and Text
Encoding, with Examples from Medieval Texts», Literary and Linguistic Computing, 6:
34-46.
SPERBERG-MCQUEEN, C. MICHAEL & LOU BURNARD, eds., 1990: Guidelines for the Encoding
and Interchange of Machine-Readable Texts. Document Number: TEI P 1. Draft: Version
1.0. N.p.: The Association for Computers and the Humanities (ACH); The Association for
Computational Linguistics (ACL); The Association for Literary and Linguistic Computing
(ALLC).
__________, 1992a: Manual para la codificación e intercambio de textos informatizados.
Normas de la Text Encoding Initiative. Edición española a cargo del Area de
Industrias de la Lengua (Sociedad Estatal del V Centenario). Director: Francisco Marcos
Marín. Traducción: Verónica Zumárraga y Marcela Tabanera. Madrid: [Sociedad Estatal
Quinto Centenario]. [Es la trad. de la versión 1.01.
__________, 1992b: Guidelines for Electronic Text Encoding and Interchange. TEI
P2, Chapters 21-22, 34. Draft Version 2. N.p.: The Association for Computers and the
Humanities (ACH): The Association for Computational Linguistics (ACL); The Association for
Literary and Linguistic Computing (ALLC). [El cap. 21 trata los caracteres y los juegos de
caracteres; el cap. 22, encabezamiento de un texto; el cap. 34, el juego de membretes
necesario para la transcripción de los textos orales]. |
|
Notas:
- Sigo estrechamente los materiales presentados en
Faulhaber, 1991. También quisiera reconocer la ayuda de C. M. Sperberg-McQueen, de la Text
Encoding Initiative, y de Francisco Marcos Marín, por proporcionarme la traducción
española de las normas de la TEI (Sperberg-McQueen y Burnard, 1992a).
|
|
|
|

| La lengua española y las
nuevas tecnologías |
| Portada del CVC |
| Obras de referencia | Actos culturales | Foros | Aula de lengua | Oteador |
| Rinconete | El trujamán |
| Enviar comentarios |
Centro
Virtual Cervantes
© Instituto Cervantes (España), 2003-. Reservados todos los derechos.
|
|