2013 oct Debate sobre calidad de las revistas científicas · tuvieron una mayor tasa de...

53
1 Debate sobre calidad de las revistas científicas, acceso abierto y políticas científicas a partir del mensaje “Editoriales OA estafadoras y sin escrúpulos” Editado el 23 de octubre de 2013. Versión 1.0 Contextualización: Este documento edita de una forma mínima y apresurada el debate que surgió entre algunos miembros de la lista INCYT y que en parte circuló también en IWETEL, entre el 7 y el 23 de octubre de 2013. Recoge 47 mensajes de, entre otros, Isidro Aguillo, Tomàs Baiget, Pablo de Castro, Jesús Tramullas, Luis Rodríguez Yunta, Julio Santillán, Remedios Melero, Mª Luisa Álvarez de Toledo, Edgardo Ortiz Jaureguizar, Ángeles Maldonado, Emilio Delgado López-Cózar, etc. Temas tratados: [Pendiente de elaborar] Edición: Se ha tratado de aligerar el texto del rastro de mensajes anteriores, pero se ha tratado de mantener el aire de provisionalidad de la escritura y composición de los mensajes de correo. La edición la ha realizado Tomás Saorín. Licencia: El documento reproduce los mensajes de los participantes, que son los propietarios de los derechos sobre sus textos. Se ha comunicado de forma genérica la intención de consolidar el debate para que sea accesible en acceso abierto, y al no haberse manifestado oposición se consideran cumplidas las “due diligencies”. Seguramente puede entenderse que se le aplica una licencia Creative Commons-BY. [INCYT] Editoriales OA estafadoras y sin escrúpulos 47 mensajes Tomas Baiget <[email protected]> 7 de octubre de 2013 18:02 Responder a: Indicadores en Ciencia y Tecnología <[email protected]> Para: [email protected] Estimados colegas: La revista Science publica hoy un artículo sobre un manuscrito con investigación completamente falsa describiendo un fármaco milagroso, que se envió a 304 revistas, y que fue aceptado por más de la mitad de ellas. http://www.npr.org/blogs/health/2013/10/03/228859954/some-online-journals-will- publish-fake-science-for-a-fee El documento fue aceptado por revistas alojadas por titanes de la industria editorial como Sage y Elsevier, o publicadas por prestigiosas instituciones académicas como la Universidad de Kobe en Japón, por revistas de sociedades académicas, e incluso por revistas para las que el tema del manuscrito era totalmente inadecuado, como el Journal of experimental & clinical assisted reproduction. Durante un año, John Bohannon presentó el documento falso a varias revistas de acceso abierto. En el momento de ir a imprenta la revistaScience, el manuscrito

Transcript of 2013 oct Debate sobre calidad de las revistas científicas · tuvieron una mayor tasa de...

Page 1: 2013 oct Debate sobre calidad de las revistas científicas · tuvieron una mayor tasa de aceptación, y el artículo dice: "Los resultados muestran ... electrónica y el open access.

1

Debate sobre calidad de las revistas científicas, acceso abierto y políticas científicas a partir del mensaje “Editoriales OA estafadoras y sin escrúpulos” Editado el 23 de octubre de 2013. Versión 1.0 Contextualización: Este documento edita de una forma mínima y apresurada el debate que surgió entre algunos miembros de la lista INCYT y que en parte circuló también en IWETEL, entre el 7 y el 23 de octubre de 2013. Recoge 47 mensajes de, entre otros, Isidro Aguillo, Tomàs Baiget, Pablo de Castro, Jesús Tramullas, Luis Rodríguez Yunta, Julio Santillán, Remedios Melero, Mª Luisa Álvarez de Toledo, Edgardo Ortiz Jaureguizar, Ángeles Maldonado, Emilio Delgado López-Cózar, etc. Temas tratados: [Pendiente de elaborar] Edición: Se ha tratado de aligerar el texto del rastro de mensajes anteriores, pero se ha tratado de mantener el aire de provisionalidad de la escritura y composición de los mensajes de correo. La edición la ha realizado Tomás Saorín. Licencia: El documento reproduce los mensajes de los participantes, que son los propietarios de los derechos sobre sus textos. Se ha comunicado de forma genérica la intención de consolidar el debate para que sea accesible en acceso abierto, y al no haberse manifestado oposición se consideran cumplidas las “due diligencies”. Seguramente puede entenderse que se le aplica una licencia Creative Commons-BY. [INCYT] Editoriales OA estafadoras y sin escrúpulos 47 mensajes

Tomas Baiget <[email protected]> 7 de octubre de 2013 18:02Responder a: Indicadores en Ciencia y Tecnología <[email protected]> Para: [email protected]

Estimados colegas: La revista Science publica hoy un artículo sobre un manuscrito con investigación completamente falsa describiendo un fármaco milagroso, que se envió a 304 revistas, y que fue aceptado por más de la mitad de ellas. http://www.npr.org/blogs/health/2013/10/03/228859954/some-online-journals-will-publish-fake-science-for-a-fee El documento fue aceptado por revistas alojadas por titanes de la industria editorial como Sage y Elsevier, o publicadas por prestigiosas instituciones académicas como la Universidad de Kobe en Japón, por revistas de sociedades académicas, e incluso por revistas para las que el tema del manuscrito era totalmente inadecuado, como el Journal of experimental & clinical assisted reproduction. Durante un año, John Bohannon presentó el documento falso a varias revistas de acceso abierto. En el momento de ir a imprenta la revistaScience, el manuscrito

Page 2: 2013 oct Debate sobre calidad de las revistas científicas · tuvieron una mayor tasa de aceptación, y el artículo dice: "Los resultados muestran ... electrónica y el open access.

2

había sido aceptado por 157 revistas y 98 lo habían rechazado. Las que están en la lista de editoriales sospechosas de Jeffrey Beall http://scholarlyoa.com/publishers tuvieron una mayor tasa de aceptación, y el artículo dice: "Los resultados muestran que Beall es bueno en la detección de los editores con mal control de calidad". Desafortunadamente, para las revistas que están en DOAJ pero no en la lista de Beall, el estudio encontró que también 45% de ellas aceptaron el documento falso: un mal indicador para la publicación académica en acceso abierto en general. El experimento ha puesto en evidencia lo mal que se hace la evaluación por pares en determinadas editoriales, y algunas de éstas, las llamadas “depredadoras”, que cobran por publicar en acceso abierto y no realizan ninguna evaluación. Cuanto más publican más cobran. En este url se muestra un mapa-mundi con todas las editoriales, las que aprobaron el manuscrito y las que lo rechazaron: http://scicomm.scimagdev.org Leer el artículo entero: http://www.sciencemag.org/content/342/6154/60.full Tomàs Baiget http://elprofesionaldelainformacion.com ---------------------------------------------------- Normas para el correcto uso del correo electrónico: http://www.rediris.es/mail/estilo.html ----------------------------------------------------

Pablo de Castro <[email protected]> 8 de octubre de 2013

08:10Responder a: Indicadores en Ciencia y Tecnología <[email protected]> Para: [email protected]

Buenos dias, La publicacion de este estudio ha dado lugar a numerosas denuncias de sesgo metodologico desde la comunidad de defensores del acceso abierto. Existe cierto consenso en el sentido de que con este movimiento Science y la AAAS tratan de desacreditar las revistas de acceso abierto, poniendo cuidado de seleccionar las menos rigurosas de entre ellas para validar su hipotesis. Un par de referencias para mas informacion tomadas del blog de Mike Taylor, donde la noticia lleva debatiendose desde la semana pasada: "Anti-tutorial: how to design and execute a really bad study", Oct 7, http://svpow.com/2013/10/07/anti-tutorial-how-to-design-and-execute-a-really-bad-study/ "John Bohannon’s peer-review sting against Science", Oct 3, http://svpow.com/2013/10/03/john-bohannons-peer-review-sting-against-science/

Page 3: 2013 oct Debate sobre calidad de las revistas científicas · tuvieron una mayor tasa de aceptación, y el artículo dice: "Los resultados muestran ... electrónica y el open access.

3

Este primer post incluye enlaces a otras 25 reflexiones sobre el episodio en otros tantos foros, entre ellas la difundida por la 'Open Access Scholarly Publishers Association' (OASPA), http://oaspa.org/response-to-the-recent-article-in-science/. Por mucho que la calidad de las revistas y del proceso de revision por pares sea de capital importancia en el ambito de la comunicacion cientifica, esta inveterada costumbre de hacer montañas de granos de arena recuerda mas al sensacionalismo periodistico que a la verdadera ciencia. Un saludo, Pablo ----- Pablo de Castro euroCRIS Best Practice/DRIS Task Group Leader ORCID Technical Steering Group member http://orcid.org/0000-0001-6300-1033 UK RepositoryNet+ Project EDINA National Data Centre, Edinburgh, UK http://www.repositorynet.ac.uk/ [email protected] [El texto citado está oculto] ---------------------------------------------------- Para darse de baja INCYT pincha y envia el siguiente url mailto:[email protected] ----------------------------------------------------

Isidro F. Aguillo <[email protected]> 8 de octubre de 2013

09:44Responder a: "Isidro F. Aguillo" <[email protected]> Para: [email protected]

Estimados colegas:

Interesante, aunque no demasiado novedoso, estudio. Sin embargo, me gustaría profundizar en el análisis de Tomás y ser más crítico abogando por acciones concretas y, en este caso, específicas para la comunidad hispanohablante (y luso-parlantes) y sus revistas.

El problema de fondo es que existe una gran inflación en el número de revistas "científicas" que se publican, un fenómeno agravado con la irrupción de la edición electrónica y el open access. Se ha creado una burbuja que está afectando al sistema de comunicación científica en su conjunto. Citaré algunos casos:

- El exceso de títulos, aunque sean "baratos" de producir, afecta a la viabilidad

Page 4: 2013 oct Debate sobre calidad de las revistas científicas · tuvieron una mayor tasa de aceptación, y el artículo dice: "Los resultados muestran ... electrónica y el open access.

4

económica del sistema, pues retrae recursos tanto monetarios como humanos. En época de crisis dividir los fondos entre una multitud de títulos mediocres penaliza los esfuerzos de las revistas excelentes.

- El proselitismo activo de muchos editores favorece la multiplicación de copias y versiones del mismo trabajo, tanto propio como ajeno (plagio). Incluso sin llegar a casos tan extremos nos encontramos con una ausencia muy preocupante de originalidad (¿alguna vez os habéis preguntado para que sirven tantos artículos que traten sobre las ventajas del acceso abierto, cuando unos pocos bien escritos bastarían?.

- El proceso de "peer review" se desprestigia, no solo por el amateurismo (falta de profesionalidad) de muchos editores, sino por la presión que ahora se somete a los revisores que reciben literalmente docenas de peticiones, lo que ocupa tiempo y esfuerzo y que en muchos casos solo permite constatar la baja calidad de lo remitido a recensionar.

Tiro la piedra, pero no escondo la mano: Hay culpables de todo esto y no me refiero a los editores que aprovechan la coyuntura, sino en este caso a iniciativas desde nuestra profesión que "regalan" marchamos de calidad, reconocimientos implícitos o explícitos, a títulos de pobrísima calidad cuando no auténticamente criminales como señala Tomás. Me refiero a directorios o portales de revistas tales como Latindex, Redalyc, Scielo o Dialnet, que han realizado una labor encomiable, merecedora de reconocimiento, pero que se han quedado muy cortos en la selección y aplicación de criterios de incorporación de revistas. Los criterios solo formales, incluso aquellos que podríamos denominar "fuertes" (revisión por pares, comités no endogámicos) son frecuentemente burlados. Además parece haberse desatado una carrera entre todos ellos para tener el mayor número de títulos, una carrera en la que todo vale, incluyendo aceptar revistas a-, para- o pseudo-académicas.

Obviamente los editores de estos portales discreparan de mi análisis y defenderán sus criterios y actuaciones. Yo podría argumentar, por ejemplo, que la región no necesita 146 revistas de CC de la Información (Latindex), pero todo esto posiblemente no nos llevara a nada por los intereses creados, por lo que permitidme ser práctico:

Propongo que estos portales y directorios clasifiquen las revistas por su calidad estableciendo criterios basados en calidad sustantiva, no solo formal, y asumiendo que la categoría máxima (utilizando terminología de ratings, la A+ o Excelente) no pueda en ningún caso incluir más del 10% del total de títulos. En todo caso la categoría Z- (50%?) debiera denominarse "Títulos a extinguir" y debería informarse de las revistas incluidas a los responsables institucionales involucrados (podría empezar por ejemplo por el vicerrectorado de la Universidad de Sevilla, una humilde sugerencia)

Vuestro turno,

El 07/10/2013 18:02, Tomas Baiget escribió: [El texto citado está oculto] -- ******************************

Page 5: 2013 oct Debate sobre calidad de las revistas científicas · tuvieron una mayor tasa de aceptación, y el artículo dice: "Los resultados muestran ... electrónica y el open access.

5

Isidro F. Aguillo, HonDr. The Cybermetrics Lab, IPP-CSIC Grupo Scimago Madrid. SPAIN [email protected] ORCID: 0000-0001-8927-4873 ResearcherID: A-7280-2008 Scholar Citations: SaCSbeoAAAAJ Twitter: @isidroaguillo Rankings Web: webometrics.info ******************************

Jesús Tramullas <[email protected]> 8 de octubre de 2013

10:24Responder a: Indicadores en Ciencia y Tecnología <[email protected]> Para: [email protected]

"Propongo que estos portales y directorios clasifiquen las revistas por su calidad estableciendo criterios basados en calidad sustantiva" ...este Isidro, siempre tan bromista... ¿cuáles son esos criterios de calidad sustantiva? Porque en los más de 20 años que llevo en el campo de los estudios de información, he visto de todo, y poco de "calidad sustantiva". Por poner un sencillo ejemplo, gran parte de las recomendaciones sobre "calidad" que se dan académica y profesionalmente para valorar y evaluar recursos web muestran un alto componente de criterios de forma, a los que dan bastante valor. Y es que para valorar la calidad sustantiva hay que "saber" de lo que se valora. No basta con tener un comité, o cumplir unos requerimientos formales y estandarizados fácilmente "reproducibles". Por ejemplo, la experiencia docente con estudiantes universitarios (sí, tengo la suerte de hacer alfabetización real en diferentes áreas, no me quedo en pontificar desde un despacho bibliotecario) me demuestra que la forma importa más bien poco, que van al contenido. Y que no se fían de que haya elementos formales tradicionalmente establecidos. Y como normalmente tienden a no ser exhaustivos en sus búsquedas, limitándose a los dos o tres primeros elementos que resuelven sus necesidades, puede ser que a medio plazo muchas de esas revistas mueran por falta de "lectores"... Y que conste que comparto todo lo dicho por Isidro. -- "Nunca la bandera arriada, nunca la última empresa." Ernest Shackleton

Page 6: 2013 oct Debate sobre calidad de las revistas científicas · tuvieron una mayor tasa de aceptación, y el artículo dice: "Los resultados muestran ... electrónica y el open access.

6

--#------------------------------------------------------------ Dr. Jesús Tramullas http://tramullas.com Dept. Ciencias Documentación // Information Sciences Dep. Universidad de Zaragoza 50009 Zaragoza (España) -----------------------------------------------------------#-- [El texto citado está oculto]

Luis Rodríguez Yunta <[email protected]> 8 de octubre de 2013

11:30Responder a: Luis Rodríguez Yunta <[email protected]> Para: [email protected]

Hola a todos Dice Isidro: "Tiro la piedra, pero no escondo la mano: Hay culpables de todo esto..." Pues voy a darle con la vara manchega a esa mano aprovechando que no se esconde En mi opinión, este tipo de "acusaciones" son injustas y no nos llevan a ningún sitio. Los creadores de recursos de información en ningún modo pueden considerarse culpables de la inflacción de revistas ni de la obsesión de la academia por valorar publicaciones con puntuaciones en el CV. De igual modo que los que crean rankings no son culpables de lo que se haga con ellos. Si hablamos de política científica como país habrá que mirar a los responsables de la política científica. En España existe una herramienta (Recyt) y teóricamente un plan por apoyar la profesionalidad de la edición de revistas. Creo que es suficiente con pedir que esas políticas se lleven a cabo en serio y hasta sus últimas consecuencias: es decir que se exija de verdad profesionalidad, se certifique y se apoye económicamente a las revistas certificadas con el objetivo de aumentar su difusión, impacto y representatividad (más artículos por revista). Dirijamos la atención a apoyar las buenas revistas en vez de reclamar que se persiga o sancione a las demás (no se pueden poner puertas al campo). Me parecería justa la crítica de Isidro si se limitara a decir: Ojo a las agencias y organismos de política científica, no se puede tomar tal recurso o tal ranking como baremo por tal y cual. Pero los que crean un recurso solo tienen la responsabilidad de ser transparentes en cuanto a su metodología. Por ejemplo, la cita a Latindex, este recurso es plenamente transparente con lo que hace (no como otros, como Scopus por ejemplo). Pero claro, Latindex solo puede tomarse como un censo de mínimos en cuanto a una lista de revistas que pretenden ser científicas o aparentarlo, efectivamente, ¿es que se toma por otra cosa en algún sitio? ¿es que se valora en algún sitio al mismo nivel publicar en una revista del catálogo Latindex que hacerlo en una seleccionada en WoS? Pues si alguien lo hace así es su responsabilidad no la de Latindex, que no es una agencia de política científica.

Luis Rodríguez Yunta

CSIC – CCHS

Page 7: 2013 oct Debate sobre calidad de las revistas científicas · tuvieron una mayor tasa de aceptación, y el artículo dice: "Los resultados muestran ... electrónica y el open access.

7

U. Análisis Doc. y Prod. B.D. ISOC

C/ Albasanz 26-28, 28037 Madrid

Tel. 916022695

El 08/10/2013 9:44, Isidro F. Aguillo escribió: [El texto citado está oculto]

Isidro F. Aguillo <[email protected]> 8 de octubre de 2013

13:20Responder a: "Isidro F. Aguillo" <[email protected]> Para: [email protected]

El 08/10/2013 11:30, Luis Rodríguez Yunta escribió: Hola a todos Dice Isidro: "Tiro la piedra, pero no escondo la mano: Hay culpables de todo esto..." Pues voy a darle con la vara manchega a esa mano aprovechando que no se esconde Querido Luis: Encantado de recibir críticas tan constructivas. En mi opinión, este tipo de "acusaciones" son injustas y no nos llevan a ningún sitio. Los creadores de recursos de información en ningún modo pueden considerarse culpables de la inflacción de revistas ni de la obsesión de la academia por valorar publicaciones con puntuaciones en el CV. De igual modo que los que crean rankings no son culpables de lo que se haga con ellos. Aqui discrepo, todos estos trabajos tienen resposabilidad directa en la medida que eligen ciertos métodos y criterios y no otros. Pero quizá la mayor responsabilidad es no haber evolucionado para corregir las malas interpretaciones. Latindex es un excelente Directorio, muy útil, que ha ayudado a mejorar la calidad formal de las revistas. Pero esos criterios ahora ya son insuficientes, hay que levantar el listón y dejar de dar "vistos buenos" a títulos que no lo merecen y se vanaglorian de cumplir criterios que a veces han falsificado. Si hablamos de política científica como país habrá que mirar a los responsables de la política científica. En España existe una herramienta (Recyt) y teóricamente un plan por apoyar la profesionalidad de la edición de revistas. Creo que es suficiente con pedir que esas políticas se lleven a cabo en serio y hasta sus últimas consecuencias: es decir que se exija de verdad profesionalidad, se certifique y se apoye económicamente a las revistas certificadas con el objetivo de aumentar su difusión, impacto y representatividad (más artículos por revista). Dirijamos la atención a apoyar las buenas revistas en vez de reclamar que se persiga o sancione a las demás (no se pueden poner puertas al campo). ¡Pero para eso se necesitan recursos!. Si quieres priorizar, de acuerdo, pero el coste de apoyar esas revistas exige cancelar las que agotan los recursos humanos y económicos de la institución. Como el viejo refrán castellano indica: "Quien

Page 8: 2013 oct Debate sobre calidad de las revistas científicas · tuvieron una mayor tasa de aceptación, y el artículo dice: "Los resultados muestran ... electrónica y el open access.

8

mucho abarca, poco aprieta" Me parecería justa la crítica de Isidro si se limitara a decir: Ojo a las agencias y organismos de política científica, no se puede tomar tal recurso o tal ranking como baremo por tal y cual. Pero los que crean un recurso solo tienen la responsabilidad de ser transparentes en cuanto a su metodología. Por ejemplo, la cita a Latindex, este recurso es plenamente transparente con lo que hace (no como otros, como Scopus por ejemplo). Pero claro, Latindex solo puede tomarse como un censo de mínimos en cuanto a una lista de revistas que pretenden ser científicas o aparentarlo, efectivamente, ¿es que se toma por otra cosa en algún sitio? ¿es que se valora en algún sitio al mismo nivel publicar en una revista del catálogo Latindex que hacerlo en una seleccionada en WoS? Pues si alguien lo hace así es su responsabilidad no la de Latindex, que no es una agencia de política científica. Hay revistas buenas, regulares, malas y muy malas. Lo que digo es que con transparencia se clasifiquen, de forma rigurosa, sin condiciomnantes políticos, linguísticos, institucionales o personales. Y que eso tenga consecuencias. Me entenderas que reniege del "café para todos". Vuestro turno, [El texto citado está oculto]

Luis Rodríguez Yunta <[email protected]> 8 de octubre de 2013

13:50Responder a: Luis Rodríguez Yunta <[email protected]> Para: [email protected]

Hola de nuevo Que hay recursos dudosos o deficientes si, pero culpables es otra cosa, si quieres culpables mira a la Aneca y la Fecyt, no a NINGUN recurso. Sinceramente lo que propones creo que no es posible. En algunos campos de Humanidades y Ciencias Sociales mi opinión es que simplemente NO hay revistas buenas en España, creo que todas son mediocres, y bastante por igual, por que se carece de hábitos de trabajo esenciales o por que el único objetivo que se persigue es publicar por publicar. Pero ¡ay! es que algunas revistas ya están seleccionadas en los círculos teóricamente más exigentes como el ISI o Recyt, entonces vamos a ser constructivos y exigirles que cumplan y mejoren, quizás en un futuro cambién hábitos y sean muy buenas, internacionales, rigurosas y con una edición de artículos más amplia que la actual (a menudo casi ridícula en algunas revistas). No vayamos a poner raseros para comprobar luego que todas están por debajo de lo que sería deseable. Y no hablemos de despilfarro de esfuerzos, cada uno es libre de gastar su tiempo como quiera y hacer revistas es como tener hijos, solo está perseguido en China. Yo no pido café para todos, sino alfombra roja y exigencia máxima para las que tengan el sello Recyt, y olvido absoluto para las demás (en cuanto a lo que tenga que ver con valoración se entiende, por lo demás dejemos vivir a todos). Me basta con una lista de las A+, no hagamos una lista de A, B, C, D, E,... esto no conduce a nada. Y Latindex no tiene que cambiar de criterios si se entiende como un censo y no se

Page 9: 2013 oct Debate sobre calidad de las revistas científicas · tuvieron una mayor tasa de aceptación, y el artículo dice: "Los resultados muestran ... electrónica y el open access.

9

usa en evaluación de CV.

Luis Rodríguez Yunta

El 08/10/2013 13:20, Isidro F. Aguillo escribió: [El texto citado está oculto]

Julio Santillán <[email protected]> 8 de octubre de 2013

16:31Responder a: Julio Santillán <[email protected]> Para: [email protected]

Saludos colegas, Siguiendo con atención sus intervenciones a propósito del trabajo presentado por Bohannon en la revista Science, además de los comentarios y críticas del amigo Aguillo. Desde mi punto de vista, y con la licencia que me brinda mi vinculación al tema, considero que las críticas en torno a las prácticas editoriales por parte de las revistas de acceso abierto desarrolladas en América Latina tienen hasta cierto punto sentido, toda vez que somos conscientes que la labor editorial científica aún es endeble al estar en proceso de desarrollo y por ende de madurez. Así el cuestionamiento a las prácticas editoriales para nuestras publicaciones es de esperarse, no olvidemos el reciente caso de Thomson Reuters para con un grupo de revistas médicas. Sin embargo eso, como lo ratifica Aguillo, no resta mérito al esfuerzo desarrollado por diversas iniciativas como es el caso de SciELO (incorporado a Web of Knowledge) y Latindex, que vienen bregando desde hace más de 15 años por dar visbilidad a la produción científica de esta parte del mundo, la cual discurre por nuestras publicaciones. Y es que es necesario recordar que el acogimiento y adopción del acceso abierto en América Latina en la actualidad, no es una casualidad, sino una consecuencia de muchas décadas previas de fomento del libre acceso a la información académica. No en vano investigadores sobre el tema como Willinsky destacan el especial desarrollo del acceso abierto en esta parte del mundo. Apelando a la voluntad constructiva de este diálogo, agradeceré se precise con más de detalle las sugerencias de clasificación de revistas para nuestros portales y directorios basándonos en criterios de calidad sustantiva y no solo formal. Finalmente, y a propósito de estar próximos a la celebración del Open Access Week, los invito a no tirar "piedras" a las iniciativas en favor del acceso abierto que se desarrollan en América Latina o en cualquier parte del mundo, sino a compartir "ladrillos" de conocimiento con el propósito de construir y consolidar procesos de comunicación científica más equitativos e inclusivos para beneficio y desarrollo de la ciencia en nuestros países. Un cálido saludo desde el sur. -- Julio Santillán Aldana

Page 10: 2013 oct Debate sobre calidad de las revistas científicas · tuvieron una mayor tasa de aceptación, y el artículo dice: "Los resultados muestran ... electrónica y el open access.

10

Grupo de Pesquisa Publicações Eletrônicas Universidade de Brasília http://lattes.cnpq.br/1937356712603636 Telefone: (55) 61 8213-5050 Skype ID: santillan_aldana Brasília - Brasil --

Pense no meio ambiente antes de imprimir este e-mail

El 8 de octubre de 2013 08:50, Luis Rodríguez Yunta <[email protected]> escribió: [El texto citado está oculto]

Melero, Remedios <[email protected]> 9 de octubre de 2013

09:59Responder a: "Melero, Remedios" <[email protected]> Para: [email protected]

Buenos dias a todos, En primer lugar me uno a los comentarios de Luis y de Julio respecto a los criterios de evaluación de Latindex y Scielo y añado los de Redalyc. Formo parte del comite cientifico de este proyecto y ratifico evaluaciones y os puedo decir que de la calidad y escrupulosidad con que se hacen son excelentes, y el agradecimeinto de los editores por hacer que esas evaluaciones sirvan para mejorar su calidad, notable. Dicho esto me centraré en el artículo de Science: 1. Es un articulo que la revista encargó sin control de calidad del mismo, es decir no paso por el peer review 2. El autor habla de 304 revistas, pero no esta clara la toma de la muestra 3. Entre las editoriales hay de todo tipo, grandes, pequeñas, impactantes...y acusa al hecho de ser OA el bajar el listón de la evaluación. Francamente aqui habria que ser transparente, cuales fueron los comentarios de los recensores? hay que fiarse de sus datos porque no hay ninguna evidencia de que fueran asi. Incluso si lo hubieran sido, por ejemplo PLOS detectó errores y rechazo el trabajo en menos de 2 semanas. 4. Ese tipo de trabajos ya se han hecho antes para ver la eficacia de los evaluadores (ver publicaciones del congreso sobre peer review) y no del modelo de acceso y reutilización de los articulo de una revista. Mas aun el mayor numero de artiuclos retractados proviene de las "revistas de mayor prestigio" 5. El trabajo es segado y tendencioso, el mismo en si carece de lo que parece no tuvo su "placebo" el pase por una evaluación por pares. Eso no quiere decir que no haya editores que no sean transparentes y honestos, pero este calificativo no es

Page 11: 2013 oct Debate sobre calidad de las revistas científicas · tuvieron una mayor tasa de aceptación, y el artículo dice: "Los resultados muestran ... electrónica y el open access.

11

exclusivo de los que llevan etiqueta OA. Reme

Magda Costa <[email protected]> 9 de octubre de 2013

11:40Responder a: Magda Costa <[email protected]> Para: [email protected]

Recomiendo la lectura del siguiente artículo: http://chronicle.com/blogs/percolator/critics-say-sting-on-open-access-journals-misses-larger-point/33559. Hace patente que el Open Access en sí mismo no es responsable de la situación, y que hay otros factores importantes, como los sistemas de evaluación del personal investigador, que los someten a una presión constante por publicar, publicar, publicar, lo que favorece una inflación en el número de cabeceras, de calidades muy desiguales. Destaca también que una parte importante de las revistas de la muestra pasaron la prueba, de modo que no se puede juzgar a justos por pecadores. Hay que revisar cuestiones de fondo en el sistema (y valorar a cada editor individualmente), no lanzar una cruzada contra el Open Access en general. Saludos,

-- Magda Costa.

Carlos Olmeda-Gómez <[email protected]> 9 de octubre de 2013

14:05Responder a: Indicadores en Ciencia y Tecnología <[email protected]> Para: [email protected]

>"Propongo que estos portales y directorios clasifiquen las revistas por su calidad estableciendo criterios basados en calidad >sustantiva" (...) >"¿cuáles son esos criterios de calidad sustantiva?". Peer review e indicadores basados en el análisis de la red de citaciones. Saludos Carlos Olmeda-Gómez Universidad Carlos III - Dpto. Biblioteconomía y Documentación -----Mensaje original----- De: Indicadores en Ciencia y Tecnolog ía [mailto:[email protected]] En nombre de Jesús Tramullas Enviado el: martes, 08 de octubre de 2013 10:24 Para: [email protected] Asunto: Re: [INCYT] [BIB-MED] Editoriales OA estafadoras y sin escrúpulos [El texto citado está oculto] ----------------------------------------------------

Page 12: 2013 oct Debate sobre calidad de las revistas científicas · tuvieron una mayor tasa de aceptación, y el artículo dice: "Los resultados muestran ... electrónica y el open access.

12

Si tiene algun problema con la utilizacion de la lista. Pongase en contacto con nosotros a traves de: [email protected] ----------------------------------------------------

Garcia Ballesteros, Teresa <[email protected]> 9 de octubre de

2013 14:40Responder a: "Garcia Ballesteros, Teresa" <[email protected]> Para: [email protected]

Sobre publicación científica, en septiembre Juan Arechaga ha publicado un artículo titulado "Open Access, un arma de doble filo para las revistas científicas". En el que vierte, (en mi opinión, contradictorios y cuestionables) argumentos sobre diferentes aspectos de la edición científica, los indicadores bibliométricos y el propio Open Access. Sin duda aporta elementos que pueden servir para animar este debate: http://www.sebbm.com/revista/articulo.asp?id=10007&tipoCom=24&catgrupo=265 Saludos

Mª Teresa García Ballesteros Biblioteca/Servicio de Información Científica del Hospital Universitario Virgen de la Victoria de Málaga. ORCID: 0000-0002-0969-6599 Blog: http://www.juntadeandalucia.es/servicioandaluzdesalud/huvv/blogs/blog-de-informacion-cientifica [email protected] Telfs: 951032005 - 951032231 Corporativos: 932005 - 932231 Antes de imprimir este e-mail, piensa bien si es necesario hacerlo. Una tonelada de papel implica la tala de 15 árboles. Cuida el medio ambiente

LUIS.RODRIGUEZ.YUNTA.11370 <[email protected]> 9 de octubre

de 2013 16:39

Responder a: Indicadores en Ciencia y Tecnología <[email protected]> Para: [email protected]

Hola a todos La polémica generada a partir del dedo acusador de Isidro sobre los criterios de evaluación de revistas se ha mezclado entre dos listas. En iwetel Julio Santillán pedía: "Apelando a la voluntad constructiva de este diálogo, agradeceré se precise con más de detalle las sugerencias de clasificación de revistas para nuestros portales y directorios basándonos en criterios de calidad sustantiva y no solo formal." Creo que no tuvo respuesta en iwetel y en cambio en la lista incyt, responde hoy Carlos Olmeda-Gómez a una pregunta similar de Jesús Tramullas "¿cuáles son esos criterios de calidad sustantiva?". Peer review e indicadores basados en el análisis de la red de citaciones. Estoy de acuerdo con lo que indica Carlos pero precisaría un poco más:

Page 13: 2013 oct Debate sobre calidad de las revistas científicas · tuvieron una mayor tasa de aceptación, y el artículo dice: "Los resultados muestran ... electrónica y el open access.

13

- Peer review certificado documentalmente. No basta afirmar que se hace peer-review, deben presentarse ante una entidad certificadora documentos que prueben el funcionamiento eficaz del sistema, que al autor se le requieren cambios que mejoran los artículos. Esto es lo que en España exige RECYT y sería bueno que se mantuviera. - Análisis de citaciones recibidas basados en el índice-h, no en factor de impacto. Esto es como si en un equipo de baloncesto el jugador A tira 2 veces por partido y mete canasta siempre, con un porcentaje del 100%, mientras el jugador B tira 30 veces y mete 20 (66%). El jugador excelente es B no A, es el "jugador más valioso del partido" sin duda. El número de puntos es el indice h mientras el porcentaje de aciertos es el factor de impacto. Esto evidentemente sería solo para definir un cuerpo de revistas excelentes, aquellas de las que se espera que publicar sea un reto, exigentes y selectivas. Al margen de estas hay que aceptar que siempre existirán muchas otras publicaciones que contribuyen a la comunicación científica, pero que no pueden utilizarse al mismo nivel en la evaluación de CV. A mi juicio es bueno que existan recursos que recojan todas estas revistas, no solo las excelentes, aunque quizás se podría prever la posibilidad de filtrar búsquedas a estas últimas pero no necesariamente excluyendo a las demás. Solo se puede excluir a las publicaciones sin objetivo científico y para ello los criterios formales creo que sí bastan. Saludos Luis Rodríguez Yunta [El texto citado está oculto]

Julio Santillán <[email protected]> 9 de octubre de 2013

20:21Responder a: Julio Santillán <[email protected]> Para: [email protected]

Hola nuevamente, Ante todo agradecer a Luis Rodríguez y Jesús Tramullas, a quienes no tengo la suerte de conocer, por responder mi inquietud. Yo también estuve buscando por mi lado respuesta a esa interrogante y encontre algunos alcances en una presentación de Octavio Alonso, miembro de Latindex, para quien los criterios formales de calidad básicos en una revista académica, impresa o electrónica, son aquellos relacionados con las normas de publicación y con los aspectos vinculados a la gestión editorial de una publicación. Pero ahora más allá de dilucidar los alcances conceptuales de las críticas constructivas o no al acceso abierto, reparo en el quinto punto planteado en la intervención de la profesora Remedios Melero, al calificar el estudio de Bohannon como segado y tendencioso. Y menciono esto ya que ví ahora con preocupación como con ligeresa en las redes sociales, la Red Mundial de Científicos de mi país, pública el siguiente titular: Cuidado! revistas de libre acceso pueden publicar cualquier cosa; y lo comparo con el titular de este debate: Editoriales OA estafadoras y sin escrúpulos. Es evidente que la coincidencia del mensaje no es casual. Y esto en verdad me preocupa más, mucho más que el mismo debate entre

Page 14: 2013 oct Debate sobre calidad de las revistas científicas · tuvieron una mayor tasa de aceptación, y el artículo dice: "Los resultados muestran ... electrónica y el open access.

14

profesionales de la información, ya que es evidente que entre nosotros podemos tener encuentros o desencuentros entorno al OA. Y es que todos los que estamos involucrados en el fomento e incidencia del OA sabemos muy bien que el grupo más dificil en el cual sociabilizar los beneficios del OA es precisamente en la comunidad científica, y es el grupo al cual deseamos llegar de manera preferencial por obvias razones. Mi preocupación parte de forma particular para con las redes de colegas promotores del OA en América Latina, quienes de forma voluntaria hacen esta labor por una convicción profesional, con mucho esfuerzo, dificultad y limitaciones, y que ahora también tendrán que enfrentar los cuestionamientos, desde mi punto de vista generados desde escenarios estrategicos. Desde el sur quedamos atentos de sus intervenciones. -- Julio Santillán Aldana Grupo de Pesquisa Publicações Eletrônicas. Universidade de Brasília -- P.D. Ya en su momento Ana María Cetto y Octavio Alonso, coordinadores de Latindex respondieron a los cuestionamientos hechos al sistema, como se puede apreciar desde el minuto 12:47 de este video: http://vimeo.com/65552464 El 9 de octubre de 2013 11:39, LUIS.RODRIGUEZ.YUNTA.11370 <[email protected]> escribió: [El texto citado está oculto]

Isidro F. Aguillo <[email protected]> 9 de octubre de 2013

22:51Responder a: "Isidro F. Aguillo" <[email protected]> Para: [email protected]

Estimada Reme: Sinceramente no creo que nadie de esta (y otras) profesiones se crea que los miles de revistas de Redalyc tengan una calidad notable. Ni el 10% de las mismas está en WoS e incluso algunas de estas son tambien de una calidad cuestionable. Por tanto, con datos empíricos aseguro que dichas supuestas evaluaciones no parecen muy profesionales y creo que tu comentario peca de falta de objetividad. Respecto a tu crítica del trabajo en cuestion, me quedo con los resultados reales: docenas de revistas, algunas OA, otras no, con prácticas poco éticas, editores tramposos o estafadores. Tu propones desprestigiar el estudio, esconder la cabeza, no hacer nada. Yo creo en la acción positiva y en la necesidad de tomar medidas y aqcciones. Vuestro turno, "Melero, Remedios" <[email protected]> escribió: [El texto citado está oculto]

Page 15: 2013 oct Debate sobre calidad de las revistas científicas · tuvieron una mayor tasa de aceptación, y el artículo dice: "Los resultados muestran ... electrónica y el open access.

15

-- Isidro F. Aguillo, HonPhD Cybermetrics Lab (3C1). CCHS - CSIC Albasanz, 26-28. 28037 Madrid. Spain isidro.aguillo @ cchs.csic.es www. webometrics.info

Julio Santillán <[email protected]> 10 de octubre de 2013

02:12Responder a: Julio Santillán <[email protected]> Para: [email protected]

Saludos una vez más, Respecto al estudio Bohannon y sus repercusiones, retransmito algunos comentarios (recopilados y traducidos por la colega Olga Arias de la lista LLAAR) posteados a diversos blogs y sites especializados, por diversas personas e instituciones versadas en el tema: --

A continuación cito algunas respuestas a este artículo, todas posteadas al sitio OATP de Peter Suber: Mike Taylor, autor del blog Sauropod Vertebra Picture of the Week afirma que la muestra fue intencionalmente definida y sesgada, de manera de obtener el resultado deseado, que es inferir que no hay peer-review exhaustivo en las revistas AA. http://tagteam.harvard.edu/hub_feeds/928/feed_items/287745 Peter Suber cita un caso similar de artículos engañosos publicados con anterioridad, y dice que en realidad estos episodios perjudican al acceso abierto, y también lo benefician. Lo primero, porque se emiten generalizaciones, que, como tales, afectan a publicaciones que pueden ser de calidad. Lo segundo, porque echan luz sobre conductas condenables de algunos editores, que deberían desalentar a otros con similares intenciones. http://tagteam.harvard.edu/hub_feeds/928/feed_items/287745 Günther Eysenbach, activista de acceso abierto y editor de una reconocida revista también de acceso abierto, Journal of Medical Internet Research JMIR (no confundir con JIMR = Journal of International Medical Research, publicado por SAGE, que sí aceptó el artículo engañoso), recibió también varios mails del autor ficticio tratando de que aceptara el artículo en cuestión, (que fue rechazado) y relata lo que él considera un accionar sesgado y malintencionado de parte de Bohannon, que lo que pretende en última instancia es desacreditar a las revistas en abierto. Critica además la inconsistencia de los datos y de la metodología, y afirma que este artículo no hubiera pasado una revisión por pares. http://gunther-eysenbach.blogspot.com.ar/ Postura de SPARC Una significativa limitación de este estudio es que el artículo en cuestión se envió sólo a un selecto grupo de revistas de acceso abierto, y no se utilizó un grupo de control comparativo de revistas basadas en suscripción, lo cual torna las

Page 16: 2013 oct Debate sobre calidad de las revistas científicas · tuvieron una mayor tasa de aceptación, y el artículo dice: "Los resultados muestran ... electrónica y el open access.

16

conclusiones insostenibles. Otra cuestión es que las revistas elegidas para someter el artículo no se eligieron de una manera aleatoriamente adecuada. Además, se eligieron sólo publicaciones que cobran cargos al autor, excluyendo el enorme universo de editores que no cobran esos cargos. Debido a estas limitaciones, mientras que los datos de Bohannon podrían apoyar la conclusión de que un número importante de revistas de acceso abierto actualmente emplean prácticas editoriales de baja calidad, no se deducen las conclusiones generales sobre el grado en que las revistas de acceso abierto se comparan con revistas de suscripción similares, o acerca de la prevalencia de este problema en el mercado extendido de la publicación académica. http://www.sparc.arl.org/blog/science-magazine-open-access-sting Posturas de OASPA y DOAJ Tanto OASPA (Open Access Scholarly Publishing Association) como DOAJ (Directory of Open Access Journals) emitieron declaraciones donde detallan sus políticas de aceptación de artículos, el trabajo emprendido desde su creación hasta la fecha para mantener estándares de calidad, y la respuesta que darán a este artículo no bien hayan completado la lectura de los datos. Sin embargo, en la página de DOAJ se transcribe un email del Director Gerente de DOAJ al autor del artículo, y lo que realmente apareció en el artículo, donde se aprecia claramente cómo partes del texto del email fueron reducidas y sacadas de contexto para arribar a una conclusión deseada. http://oaspa.org/response-to-the-recent-article-in-science/ http://www.doaj.org/doaj?func=news&nId=315&uiLanguage=en Blog Human Ecology En este blog, su autor, Brian Wood, ecólogo de la universidad de Yale, defiende las conclusiones del artículo, afirmando al factor de impacto como medida de excelencia del referato, y aporta una medición que hizo él mismo para sostener su argumento. http://humanecologyblog.wordpress.com/2013/10/05/sting-operation-demonstrates-the-value-of-journal-impact-factors/ Postura de Stevan Harnad En el mismo blog, Stevan Harnad, reconocido activista de acceso abierto le responde que, para declarar que el artículo ficticio publicado en Science aporta conclusiones valederas habría que enviarlo también a revistas por suscripción y ver qué pasa. Pero opina que posiblemente el resultado sería que, de todos modos, el artículo en cuestión sería aceptado por muchos editores de acceso abierto, por una sencilla razón: la publicación por la ruta dorada todavía es prematura, como son los planes de universidades y agencias de financiación de solventar sus costos. Los fondos son escasos, y la mayoría de las revistas “top” son todavía por suscripción, lo cual impide que aquéllos sean asignados a pagar la publicación por la vía dorada. Además, los precios para publicar en esta modalidad son todavía altos, y hay verdadera preocupación de que pagar para publicar pueda inflar la tasa de aceptación de artículos, y bajar la calidad (como muestra el artículo en Science). La solución es el mandato para la ruta verde. Cuando éste se generalice, las suscripciones se tornarán insostenibles, lo que a su vez inducirá a las revistas a eliminar costos, descargar la provisión de acceso y preservación a la red global de repositorios y convertirse al modelo de publicación por la vía dorada. Por otro lado, Harnad opina que alguna conclusión del artículo es cierta, como que el modelo de publicación en dorado ha creado la irresistible tentación para algunos de hacer negocios bajo la irreprochable excusa de defender

Page 17: 2013 oct Debate sobre calidad de las revistas científicas · tuvieron una mayor tasa de aceptación, y el artículo dice: "Los resultados muestran ... electrónica y el open access.

17

el acceso abierto. Pero publicar en una revista establecida de renombre y autoarchivando la versión arbitrada daría el mismo resultado, conservando los altos estándares de arbitraje de la revista, sin pagar un centavo de más. http://humanecologyblog.wordpress.com/2013/10/05/sting-operation-demonstrates-the-value-of-journal-impact-factors/ -- Julio Santillán Aldana

Reme Melero <[email protected]> 10 de octubre de 2013

09:40Responder a: Reme Melero <[email protected]> Para: [email protected]

Con esto cierro mi intervención y lo hago por alusiones en el mensaje de Isidro. Isidro: ""Sinceramente no creo que nadie de esta (y otras) profesiones se crea que los miles de revistas de Redalyc tengan una calidad notable. Ni el 10% de las mismas está en WoS e incluso algunas de estas son tambien de una calidad cuestionable. Por tanto, con datos empíricos aseguro que dichas supuestas evaluaciones no parecen muy profesionales y creo que tu comentario peca de falta de objetividad. " 1. Redalyc no contiene miles sino 869 revistas ( ver http://www.redalyc.org/ ) cuya calidad se ha evaluado siguiendo unos criterios de calidad que se pueden consultar en su portal ( verhttp://www.redalyc.org/info_pe.oa?page=/politica-editorial/metodologiaevalua.html ). Del contenido de sus articulos no digo nada pues de eso se encargan sus editores, y no sere yo quien los juzgue con un abanico temático tan amplio. 2. Las evaluciones son estrictamente profesionales, y para nada estoy sujeta a ningun tipo de subjetividad, todo lo contrario, escrudiño cada uno de los puntos de la evaluación que envia el comite técnico para su ratificación 3. No se a que datos empiricos te refieres si es al numero de revistas en Scopus o ISI, si quieres ver cifras y transparentes puede hacerlo en: http://www.redalyc.org/info_pe.oa?page=/politica-editorial/evalrevcifras.html Isidro: """"""Respecto a tu crítica del trabajo en cuestion, me quedo con los resultados reales: docenas de revistas, algunas OA, otras no, con prácticas poco éticas, editores tramposos o estafadores. Tu propones desprestigiar el estudio, esconder la cabeza, no hacer nada. Yo creo en la acción positiva y en la necesidad de tomar medidas y aqcciones. " 4. Si hubiera querido esconder la cabeza no hubiera contestado al mensaje, solo he puesto de manifiesto que el trabajo estaba completamente dirigido al desprestigio de las revistas de acceso abierto " en general" y como está hecho no

Page 18: 2013 oct Debate sobre calidad de las revistas científicas · tuvieron una mayor tasa de aceptación, y el artículo dice: "Los resultados muestran ... electrónica y el open access.

18

es riguroso, sigue siendo tendencioso, y repito la muestra no esta justificada. Dicho esto, y hay que mucha gente me conoce y sabe lo que pienso respecto al acceso abierto, no necesito explicar más mi postura, se han escrito articulos con fundamento, por ejemplo del Prof. Moed, que me consta que lo respetas, que hablan de que el OA no es una ventaja a la hora de la citación, con fundamento, estadisticamente justificables y me gusten o no reconozco su validez cientifica. Pues en este caso lo mismo, no es que me guste o no, simplemente no ha pasado por los cauces habituales de evaluación, y las conconclusiones son tendenciosas. Buenos días Reme

Ma. Luisa Alvarez de Toledo <[email protected]> 10 de octubre de 2013

09:54Responder a: "Ma. Luisa Alvarez de Toledo" <[email protected]> Para: [email protected]

Hola a todos, Muy bueno el resumen de comentarios que hace Julio Santillán. Y de acuerdo con Luis, es mejor política apoyar lo bueno que perseguir lo malo. El ejemplo de RECYT en España es un modelo a seguir. Aunque si alguien tiene pruebas de que una revista que no cumple las condiciones científicas de calidad y que es una estafadora, debería decirlo, por ejemplo en esta misma Lista IWETEL. Ciertamente, parace que la AAAS ha tenido cierto interés en desprestigiar el Open Access. Sus razones económicas tendrá. Pero en realidad lo que se cuestiona es el "peer review" de algunas revistas aparentemente científicas, sean open access o sean de pago. Aunque el artículo de J. Bohannon sólo ataque a las revistas open access.Así que en efecto, hay que velar por la buenas prácticas de las revistas científicas. Pienso que Latindex sigue siendo muy útil, aunque no haga una análisis exahustivo de calidad, pero ya sus criterios son bastante siginificativos. En cuanto a desanimarnos por las críticas al open access. Nada de eso. Esto ha sido un tormenta de otoño. Hay que seguir, especialmente el la Semana del Acceso Abierto. En la Universidad de Oviedo el Rector firmará la Declaración de Berlín en esa semana, además desde la Biblioteca hemos iniciado unas sesiones por todos los centros universitarios para hablar del Open Access y del Repositorio institucional. Por supuesto que hablamos de la Beall’s List en esas sesiones. Estamos preparando carteles, información en la web y tutoriales. María Luisa Álvarez de Toledo

Isidro F. Aguillo <[email protected]> 10 de octubre de 2013

16:31Responder a: Indicadores en Ciencia y Tecnología <[email protected]> Para: [email protected]

Saludos desde Bogotá: Perdón por el retraso en contestar, por lo que reuno en un mismo mensaje varias respuestas o comentarios a diferentes envios:

Page 19: 2013 oct Debate sobre calidad de las revistas científicas · tuvieron una mayor tasa de aceptación, y el artículo dice: "Los resultados muestran ... electrónica y el open access.

19

- La región necesita revistas tipo Nature o Science y no tanto los miles de títulos recogidos en Latindex, un directorio que promueve la excelencia formal pero que ignora la pésima calidad (y originalidad) de los contenidos en muchas de ellas. Publicar tantos títulos mediocres detrae recursos que podrían ser mejor utilizados. Volveré a ser claro, todo el esfuerzo y recursos utilizadios para producir el (deficiente) sistema Redalyc estaría mejor empleado en construir LA gran revista multidisciplinar iberoamericana. - Las agencias evaluadoras son culpables del mal uso de las herramienyas en la medida que utilizan pseudoexpertos o aficionados y por lo que se hay solapamiento de personas entre consultores de dichas agencias y editores/asesores de alguno de los productos que hemos citado. Ya que ha abierto la puerta: ¡Por favor que alguien diga a Redalyc que deje de hacer mala bibliometría, el daño que está haciendo es enorme! - Los indicadores sustantivos no estan basados en procesos sino en resultados y su impacto. Los criterios formales solo nos informan de la rigurosidad de los procesos, no de la calidad de los trabajos. Obviamente la buena bibliometría es una solución siempre que se aplique correctamente, pero habría que incluir criterios cualititativos como la opinión de expertos. Pondré un ejemplo, PSICOTHEMA encabeza los listados españoles de índice h, lo cual me llena de profunda tristeza (e indignación). Vuestro turno, "LUIS.RODRIGUEZ.YUNTA.11370" <[email protected]> escribió: [El texto citado está oculto] ---------------------------------------------------- Los artículos de INCYT son distribuidos gracias al apoyo y colaboracióntécnica de RedIRIS - Red Académica española - (http://www.rediris.es) ------------------------------------------------------

Reme Melero <[email protected]> 10 de octubre de 2013 17:49Responder a: Reme Melero <[email protected]> Para: [email protected]

Saludos desde mi Mediterraneo amado!! Isidro hast el ISI y Scopus mantienen entre sus criterios de calidad algunos aspectos formales que pareces no darles importancia, u otros como la endogamia y la del cumplimiento de la periodicidad, todos ellos en muchos en los criterios de calidad de los proeyctos que has mencionado, es cierto que con todo eso de la formalidad no se garantiza el control de los contendios, pues bien, si es asi, que la propia comunidad las destierre, pero si siguen publicandose no seran de tan dudosa calidad. Todos los portales que has mencionado han contribuido de gran amnera a aumentar esa calidad de una manera u otra, p.e. Scielo len Brasil lo ha hecho en gran manera, que por cierto no lo has tratado con el mismo aire que a los otros.

Page 20: 2013 oct Debate sobre calidad de las revistas científicas · tuvieron una mayor tasa de aceptación, y el artículo dice: "Los resultados muestran ... electrónica y el open access.

20

Y para acabar, hace años fui también moderadora de IWETEL, y desde luego entonces se miraba muy bien el tono de los mensajes de forma que no fueran ofensivos, podrian ser incisivos pero no ofensivos y me parece que llamar mediocre, deficiente, pseudoexpertos, hacer daño etc, no dice nada en favor ni del que lo escribe. Un saludo Reme

Isidro F. Aguillo <[email protected]> 11 de octubre de 2013

02:14Responder a: "Isidro F. Aguillo" <[email protected]> Para: [email protected]

En primer lugar gracias por desviar/ignorar el debate, al parecer es mejor ser "políticamente correcto" y mantener las listas mortalmente aburridas. Uy, perdón por utilizar la palabra "mortal". Respecto a la parte sustantiva de tu mensaje: Los aspectos formales son importantes, pero solo en el sentido de que representan el mínimo. Si más de 5000 revistas cumplen ese mínimo seguro que se ha hecho un trabajo notable con los editores, pero tambien problemas muy serios. Es imprescindible incluir umbrales de calidad más elevados, entre otras razones porque esas revistas "extra" detraen recursos que no sobran. Respecto a la "auto-regulacion" por parte de la comunidad te pondré un ejemplo "basado en hechos reales": Un grupo de países publica 10 000 artículos/año (número inventado redondeado con fines didacticos). Solo 1000 de ellos se publican en revistas de impacto, indexadas o como quieras llamarlas. La comunidad se queja de que muchos de sus trabajos son invisibles porque aparecen en revistas no indizadas y aparece una demanda política para crear su propia base de datos con revistas propias. Se crea asi un repositorio que la comunidad promueve que solo sea de revistas de acceso abierto, pero que cumoplan un mínimo de criterios de calidad (4 000 artículos) porque eso es mas "democrático". No perdamos de vista el objetivo final. Ahora se trata de construir indicadores fidedignos para evaluar la actividad científica de dicha comunidad. Hay varias alternativas: a) el 10 % mas citado de los artículos indizados (100) b) Todos los artículos indizados (1000) c) Los indizados más los del repositorio (1000+4000) d) Solo los del repositorio, excluyendo los indizados (4000)

Page 21: 2013 oct Debate sobre calidad de las revistas científicas · tuvieron una mayor tasa de aceptación, y el artículo dice: "Los resultados muestran ... electrónica y el open access.

21

e) Todos (10 000) Bueno la comunidad ha decidido ... la (d). Ya que me preguntas por Scielo, me parece que su apuesta es por integrar sus revistas en el sistema, es decir apuestan por la (c). Yo particularmente me inclino por la (a) Vuestro turno,

Edgardo Ortiz Jaureguizar <[email protected]> 11 de octubre de

2013 07:00Responder a: Edgardo Ortiz Jaureguizar <[email protected]> Para: [email protected]

Estimados colegas: Hace un rato leí el último e-mail de Isidro Aguillo y no pude dejar de contestarlo, ya que me sonó a encíclica. Tal vez lo suyo haya sido solo un pronto, pero bueno, lo escrito escrito está y aquí van mis comentarios. Dice Isidro: - La región necesita revistas tipo Nature o Science y no tanto los miles de títulos recogidos en Latindex, un directorio que promueve la excelencia formal pero que ignora la pésima calidad (y originalidad) de los contenidos en muchas de ellas. No entiendo la razón por la cual “la región necesita revistas tipo Nature o Science”. Disculpen mi ignorancia, pero hasta hoy yo creía que Nature y Science no eran revistas regionales. Yo publiqué dos artículos en Nature, uno sobre un ornitorrinco del Paleoceno de Patagonia y otro sobre un australosfénido del Jurásico de Patagonia pensando que le hablaba a un público global, pero en función de lo que pontifica Isidro me equivoqué de revista (para ser honesto debo decir que nos equivocamos, porque ambos fueron escritos en coautoría). En cuanto al tema de Latindex, humildemente discrepo con Isidro (¿me echarán de la Iglesia por contrariar al pontífice? Espero que no y que él siga el ejemplo de Francisco y no el de Lefevbre). Cuando dice que la calidad y la originalidad de la mayoría de las 7.110 revistas del Catálogo (porque al hablar de manera tan amplia debo concluir que no solo se refiere al Directorio sino también al Catálogo, que es el que exige atravesar una gran cantidad de criterios “formales”) es pésima, me parece que se ha pasado un par de pueblos… no, perdón, es que olvidé que Isidro tiene acceso directo a Dios a través de un ordenador y que por medio de un lenguaje (el de los indicadores bibliométricos, un lenguaje un tanto escaso de términos, pero que se ve que a pesar de eso (o tal vez por eso mismo) se ha vuelto inmensamente poderoso) debo concluir que lo que me dice es que en mis 31 años de paleontólogo no fui capaz de apreciar que Ameghiniana, las Publicaciones Especiales de la Asociación Paleontológica Argentina, la Revista Brasileira de Paleontología, la Revista del Museo Argentino de Ciencias Naturales, la Revista de la Sociedad Española de Paleontología, la Revista Española de

Page 22: 2013 oct Debate sobre calidad de las revistas científicas · tuvieron una mayor tasa de aceptación, y el artículo dice: "Los resultados muestran ... electrónica y el open access.

22

Micropaleontología (que lamentablemente ha dejado de editarse por la crisis española y se subsume en el Boletín Geológico-Minero, otra revista indigna de llamarse así a juzgar por lo que dice Isidro), Coloquios de Paleontología y Stvdia Geologica Salmanticensia publican basura y, para peor, no original (de las restantes siete no opino porque no las conozco). No te preocupes Isidro, mañana temprano me voy a ir al Carrefour (porque no voy a ir a una tienda del barrio, que sería la equivalencia que seguramente harías entre las revistas de Elsevier y las de la Asociación Paleontológica Argentina) y con el maíz que me compre no voy a hacer palomitas sino que voy a arrojarlo al piso de la sala y me arrodillaré sobre él y no me levantaré hasta no haber repetido 100 veces las fórmulas de IF(2), IF(5), h, hc, hl-a, hl-i, hl-n, hn-m, e, y g. Dice Isidro: - Publicar tantos títulos mediocres detrae recursos que podrían ser mejor utilizados. Volveré a ser claro, todo el esfuerzo y recursos utilizadios para producir el (deficiente) sistema Redalyc estaría mejor empleado en construir LA gran revista multidisciplinar iberoamericana. Otra vez pontificando, Isidro. No estoy capacitado para evaluar a Redalyc, pero si puedo manifestar que conozco de primera mano varias revistas allí presentes que no son mediocres y mucho menos publican datos ya publicados (e.g., Andean Geology, Geologica Acta, Revista Mexicana de Ciencias Geológicas, Darwiniana, Mastozoología Neotropical, Revista de Biología Tropical, Intersecciones en Antropología). Por otra parte, proponer que todas las revistas iberoamericanas cierren sus ediciones para reunirse en “LA gran revista multidisciplinar iberoamericana” es, en mi modesta opinión, una atrocidad, en las cinco acepciones de la palabra que se leen en el diccionario de la RAE. Y ya que estamos con el diccionario, ¿recuerdan la segunda acepción de “detraer”? ¿Fue casualidad o te falló el Superyó, Isidro? Dice Isidro: - Las agencias evaluadoras son culpables del mal uso de las herramienyas en la medida que utilizan pseudoexpertos o aficionados y por lo que se hay solapamiento de personas entre consultores de dichas agencias y editores/asesores de alguno de los productos que hemos citado. Ya que ha abierto la puerta: ¡Por favor que alguien diga a Redalyc que deje de hacer mala bibliometría, el daño que está haciendo es enorme! Acuerdo con Isidro en que “las agencias evaluadoras son culpables del mal uso de las herramienyas en la medida que utilizan pseudoexpertos o aficionados”, pero esa no es la única causa de que se evalúen mal las revistas, las organizaciones y mucho menos las personas. No opino sobre las cuestiones bibliométricas intrínsecas a Redalyc, pero me pregunto: ¿por qué pedirle a otro que diga lo que uno quiere decir? Y, peor aún, ¿por qué pedirle al mandado que diga lo que se le manda decir como si fuese propio y no un pedido de quien lo envía? Dice isidro: - Los indicadores sustantivos no estan basados en procesos sino en resultados y

Page 23: 2013 oct Debate sobre calidad de las revistas científicas · tuvieron una mayor tasa de aceptación, y el artículo dice: "Los resultados muestran ... electrónica y el open access.

23

su impacto. Los criterios formales solo nos informan de la rigurosidad de los procesos, no de la calidad de los trabajos. Obviamente la buena bibliometría es una solución siempre que se aplique correctamente, pero habría que incluir criterios cualititativos como la opinión de expertos. Pondré un ejemplo, PSICOTHEMA encabeza los listados españoles de índice h, lo cual me llena de profunda tristeza (e indignación). Acuerdo con lo expresado por Isidro (vamos hombre, que no eres tan duro, si después de todo has recordado que también eres ornitólogo y le has dejado un lugar a los especialistas) hasta lo de PSICOTHEMA. Mi única competencia para evaluar una revista de Psicología radica en el hecho de ser argentino... y si, lo confieso, lo del Yo, Superyó y Ello me lo acuerdo de la secundaria. Un abrazo y hasta la próxima. Edgardo El 10/10/2013 11:31, Isidro F. Aguillo escribió: [El texto citado está oculto] Dr. Edgardo Ortiz-Jaureguizar LASBE (Laboratorio de Sistematica y Biologia Evolutiva) Facultad de Ciencias Naturales y Museo Paseo del Bosque S/Nº B1900FWA La Plata ARGENTINA Tel/Phone: (54) (221) 425-7744 ext. 127 Fax: (54) (221) 425-7527 E-mail: [email protected] Web: http://unlp.academia.edu/EdgardoOrtizJaureguizar Web: http://www.researchgate.net/profile/Edgardo_Ortiz-Jaureguizar/ Web: http://scholar.google.com/citations?user=lJ_iIHYAAAAJ

Isidro F. Aguillo <[email protected]> 11 de octubre de 2013

14:15Responder a: "Isidro F. Aguillo" <[email protected]> Para: [email protected]

Estimado Edgardo: Yo tengo mis opiniones, si quieres rebatirlas me parece bien, pero espero que con criterio y no con "boutades". Respecto a la revista multidisciplinar mi propuesta es sobre una revista hecha en la región que pueda competir con las globales siendo ella misma global. el éxito de PLOSOne muestra que es posible y en mi opinión dicho esfuerzo debería priorizarse sobre otros, pero es solo mi opinion. Respecto a los indicadores bibliométricos, pues puedes cogerlos o dejarlos. Hay mucha gente que piensa que son útiles, a los que he conocido que los rechazan suelen tener poco interes en ser evaluados.

Page 24: 2013 oct Debate sobre calidad de las revistas científicas · tuvieron una mayor tasa de aceptación, y el artículo dice: "Los resultados muestran ... electrónica y el open access.

24

Conozco bien la disciplina de la Paleontología, es una de esas disciplinas con características específicas que suele estar maltratada en los índices, al igual que las ciencias sociales y las humanidades. Quizá una manera PRACTICA de mejorar esa situación sería fusionar los títulos para garantizar la calidad, la viabilidad económica e incrementar la difusión, Pero es solo una opinion. Si no sabes de lo que hablo con respecto a Redalyc y Psicothema, pues mejor no hables. Supongo que en Secundaria además de enseñarte psicología aprenderías ética y malas y buenas prácticas en la comunicación y publicación científica. Confio en que no estes a favor del fraude, la usurpación, el engaño la manipulación o prácticas similares. El silencio es siempre complice. Pero todo esto es mi opinión. Vuestro turno, Edgardo Ortiz Jaureguizar <[email protected]> escribió: [El texto citado está oculto] [El texto citado está oculto]

Robert Endean-Gamboa <[email protected]> 11 de octubre de 2013 20:48Responder a: Robert Endean-Gamboa <[email protected]> Para: [email protected]

¿Otro escándalo Sokal?

El 8 de octubre de 2013 02:44, Isidro F. Aguillo <[email protected]> escribió: [El texto citado está oculto]

Edgardo Ortiz Jaureguizar <[email protected]> 11 de octubre de

2013 21:44Responder a: Edgardo Ortiz Jaureguizar <[email protected]> Para: [email protected]

Estimado Isidro: No pongo en duda tus opiniones y no es necesario debatirlas todas porque muchas las comparto. Mi e-mail no tuvo la intención de ofenderte y si lo hice te pido públicamente disculpas. Como lo escribí al principio de mi respuesta, lo que escribiste en tu e-mail pareció más el producto de un mal día o de una salida intempestiva que la manifestación más cruda de tus opiniones, pero no es menos cierto que lo que está escrito, escrito está y hay que aguantar lo que caiga. Reconozco que el texto fue algo irónico, pero el objetivo era doble: por un lado, responder a tus dichos, y por el otro hacerte ver que no está de más cuidarse un poco más a la hora de decir lo primero que te pasa por la cabeza, ya que nunca sabes cómo lo puede tomar quien lo lee. Aquellos te conocen personalmente (yo no tengo ese gusto) con seguridad sepan que eres mejor que lo que allí escribiste,

Page 25: 2013 oct Debate sobre calidad de las revistas científicas · tuvieron una mayor tasa de aceptación, y el artículo dice: "Los resultados muestran ... electrónica y el open access.

25

y seguramente sepan también que no has tenido la intención de ofender a nadie, pero qué quieres que te diga, sonó terrible. Lo único que hice fue responder punto por punto aquello que escribiste, dejando en claro mis propias limitaciones (el análisis profesional de Redalyc y el de una revista de Psicología) pero haciendo una interpretación literal de lo que tu texto decía. Por eso la cita textual de tus dichos, cual si fuera la respuesta a un árbitro. Yo no tengo la culpa de que la segunda acepción de "detraer" sea "Infamar, denigrar la honra ajena en la conversación o por escrito". Está claro que lo habías utilizado en la primera acepción, pero de todos modos no venía nada mal al esquema del relato plantear lo del "fallido". Fue un recurso literario, aunque no me vas a negar que esa era una casualidad digna de ser mencionada. Hechas las aclaraciones del caso, paso ahora a responder tus nuevas afirmaciones, esta vez sin recurso literario alguno: !1) Respecto a la revista multidisciplinar mi propuesta es sobre una revista hecha en la región que pueda competir con las globales siendo ella misma global. el éxito de PLOSOne muestra que es posible y en mi opinión dicho esfuerzo debería priorizarse sobre otros, pero es solo mi opinion. Debo repetirte que lo que motivó mi respuesta no fue eso, sino esto: "La región necesita revistas tipo Nature o Science y no tanto los miles de títulos recogidos en Latindex, un directorio que promueve la excelencia formal pero que ignora la pésima calidad (y originalidad) de los contenidos en muchas de ellas." Si realmente crees que ambos textos dicen lo mismo, está claro que no hablamos el mismo idioma. Por otro lado, una digresión respecto a PLOS y su serie de revistas. Yo fui unos de los firmantes de la petición del 2001 que dio pie a su creación, de manera que no es un tema que me sea ajeno. Ahora bien, no estoy para nada de acuerdo con el devenir de la iniciativa, porque una cosa es crear una biblioteca de publicaciones científicas bajo una licencia de contenido abierto, y otra muy diferente es cobrar ingentes sumas de dinero para publicar en una de las numerosas revistas y así lograr el OA por la vía dorada. Para usar las palabras de alguien que opinó respecto al caso Bohannon en Science (que ha sido el detonante de esta saga) PLOSOne es a PLOS lo que Science es a la AAAS, y viceversa. Para peor, si aceptamos acríticamente que el modelo de negocio que se viene es el de “pagar para publicar” en lugar del antiguo de “pagar para leer”, y a eso le sumamos el FI, el h, los cuartiles y demás indicadores, que llevan a que todos los científicos, no importa donde vivan, deban publicar bajo estos criterios para poder pagarse el plato de sopa cotidiano, pues resulta que en los paises “en vías de desarrollo” eso indefectiblemente llevará a la extinción de la ciencia. Perdona que sea tan autorreferencial, pero es que es el ejemplo que tengo más a mano: Yo soy miembro de un proyecto que recibe unos U$S10.000 al año, financiado por el Estado Argentino con fondos provenientes del BID (es decir, deuda externa, aunque a tasas bajas). Nuestro grupo produce una media de 10 artículos al año, de manera que si cada uno se gastara los $1350 que cobra PLOSOne para publicar allí, pues tendríamos un déficit de U$350 al año, que deberíamos pagar de nuestro bolsillo. Ahora bien, ¿con qué dinero haríamos la investigación que fuésemos a publicar? Este es un sistema demencial, que solo puede ser pagado por los países ricos (y no sin grandes costos secundarios) y que es inviable para los países de ingresos medios y bajos. De modo que volvemos a la antigua cuestión que alguna vez se publicó en Science, cuando un capitoste dijo que los países pobres debían destinar sus escasos ingresos a la salud y no a la ciencia (cuando no condimentado con aquello no menos famoso de que si no sabían

Page 26: 2013 oct Debate sobre calidad de las revistas científicas · tuvieron una mayor tasa de aceptación, y el artículo dice: "Los resultados muestran ... electrónica y el open access.

26

escribir bien en inglés cómo iban a hacer buena ciencia), que para esos estaban ellos (los ricos, claro). En fin, que Dios no permita que abandonemos todas las revistas para inventar nuestra “PLOSOne” (y tampoco que desaparezcan aquellas revistas que no cobran para publicar). (2) Respecto a los indicadores bibliométricos, pues puedes cogerlos o dejarlos. Hay mucha gente que piensa que son útiles, a los que he conocido que los rechazan suelen tener poco interes en ser evaluados. ¿De dónde infieres que no estoy de acuerdo con utilizar los indicadores bibliométricos? Está claro que son útiles, pero para medir aquello para lo que fueron creados. Pero como cualquier instrumento, no están exentos de críticas, no solo a su mal uso (que claramente no es un problema del indicador) sino a la propia capacidad de mostrar aquello que pretenden mostrar. No es necesario aburrir al personal con una lista de artículos que abordan este punto; de todos modos, y aunque no caigo en el grupo de personas que "suelen tener poco interés en ser evaluados" porque, como dices, eso queda restringido a aquellos a los cuales conoces (y nosotros no nos conocemos) te diré que me cuento entre quienes se oponen a que los científicos sean evaluados utilizando el IF(2) de las revistas en las que publican y también solo por el h (el original) que tiene reconocidos problemas para discriminar a los científicos que están en el medio de los extremos de la distribución. Y supongo que coincidirás conmigo en que esta ha sido y sigue siendo una práctica habitual en muchos países, incluyendo los nuestros. Te pongo el caso de Argentina, donde para evaluar ascensos a las categorías intermedias del principal actor del sistema científico no se leen los trabajos ni se valoran las opiniones de los pares evaluadores, sino que se mira en qué cuartil están las revistas donde se publicaron, y para pasar a las más altas, se mira solo el h. (3) Conozco bien la disciplina de la Paleontología, es una de esas disciplinas con características específicas que suele estar maltratada en los índices, al igual que las ciencias sociales y las humanidades. Quizá una manera PRACTICA de mejorar esa situación sería fusionar los títulos para garantizar la calidad, la viabilidad económica e incrementar la difusión. Pero es solo una opinion. No concuerdo contigo. En mi modesta opinión, el problema no está en la mayor o menor difusión de las revistas sino en los indicadores, que son incapaces de discriminar entre comunidades grandes y pequeñas. Por más Parque Jurásico 3D que haga la factoría de Spielberg, la comunidad paleontológica nunca va a ser más grande que la biomédica (por suerte, porque ya me dirás cómo nos iría en el futuro si hubiese más paleontólogos que médicos y bioquímicos dedicados a curar nuestra salud) como así tampoco, dentro de la misma paleontología, nunca va a tener la misma tasa de citación un trabajo sobre un grupo restringido a un solo continente (como los marsupiales abederítidos) que otro igual de bueno sobre équidos. Creo que si fusionases Ameghiniana con todas las otras revistas paleontológicas que aparecen en el Catálogo de Latindex, no verías incrementada significativamente la "popularidad" de los trabajos. Y es que también se parte de que toda la ciencia es universal y esa es una paradoja, como la de la cultura (hay una pero al mismo tiempo hay miles) porque la realidad muestra cosas muy distintas en diferentes disciplinas. Las hay que son más "globales" como la Física (los rayos cósmicos, por poner solo un ejemplo, caen por igual en todas parte) y otras muy distintas como la ornitología, porque justamente la geografia juega un

Page 27: 2013 oct Debate sobre calidad de las revistas científicas · tuvieron una mayor tasa de aceptación, y el artículo dice: "Los resultados muestran ... electrónica y el open access.

27

papel clave no solo en la distribución de los taxones sino también de los taxónomos. Por otro lado, no concuerdo en que la calidad de los trabajos esté inversamente relacionada con la cantidad de revistas del ramo. Para no salir de los ejemplos dados en mi anterior e-mail, mis trabajos en Nature no son mejores que los que les siguieron, sobre todo porque eran “Letters to Nature”, de no más de 4 carillas, donde básicamente se daban a conocer los hallazgos y se los enmarcaba en la problemática genera (evolutiva, biogeográfica, etc). Siguen siendo buenos artículos, se siguen citando, pero ni con mucho son los mejores. Por otro lado, si todos los trabajos paleontológicos fueran de este estilo, sabríamos mucho menos de lo que sabemos acerca de los fósiles. Y, por el otro, habría que justificar por qué un ornitorrinco patagónico es más digno de Nature que un cormorán o una espora. Hay grupos “de moda”: homínidos, dinosaurios, unos pocos mamíferos “díscolos” que, para fortuna de los que los hallamos, o no se avinieron a vivir donde debían, o mostraban estructuras inesperadas (como las de Castorocauda) para su época, pero eso, que ocurre también en otros grupos menos “marketineros”, no es del interés de las mega-revistas. ¿Ciencia o mercado? Tú dirás. (3) “Si no sabes de lo que hablo con respecto a Redalyc y Psicothema, pues mejor no hables. Supongo que en Secundaria además de enseñarte psicología aprenderías ética y malas y buenas prácticas en la comunicación y publicación científica. Confio en que no estes a favor del fraude, la usurpación, el engaño la manipulación o prácticas similares. El silencio es siempre complice”. A ver, de Redalic dije: “No estoy capacitado para evaluar a Redalyc, pero si puedo manifestar que conozco de primera mano varias revistas allí presentes que no son mediocres y mucho menos publican datos ya publicados (e.g., Andean Geology, Geologica Acta, Revista Mexicana de Ciencias Geológicas, Darwiniana, Mastozoología Neotropical, Revista de Biología Tropical, Intersecciones en Antropología).” Y de Psicothema dije: “Mi única competencia para evaluar una revista de Psicología radica en el hecho de ser argentino... y si, lo confieso, lo del Yo, Superyó y Ello me lo acuerdo de la secundaria”. Así que está claro que eludí discutir tus afirmaciones sobre ambas entidades, ya que no soy un especialista. De todos modos, te recuerdo que no tengo por qué conocer tus problemas u opiniones previas con ambas entidades, y creo que muchos de los que te leen tampoco lo saben. Modestamente te sugiero que la próxima vez no des por sobreentendidas cosas tan importantes. En cuanto a lo de la secundaria, algunas aclaraciones. De acuerdo con Wikipedia, naciste en el 63 y te educaste en España. Yo nací en el 57 y me eduqué en Argentina. Y aunque fui a un buen colegio secundario, dependiente de la Universidad Nacional de la Plata, en los 70s no se enseñaba no solo “ética y malas y buenas prácticas en la comunicación y publicación científica”, sino que no se enseñaba nada sobre comunicación y publicación científica. No sé si tú habrás tenido la suerte de aprender eso en cuando en los 80s asistías a la secundaria, pero dos de mis hijos (que desde 1995 viven en España) hicieron su secundaria en Madrid y sinceramente no recuerdo que hayan visto eso en sus clases. Por otro lado, no veo por qué infieres que puedo estar “a favor del fraude, la usurpación, el engaño la manipulación o prácticas similares”. Tu rollo con Redalyc y Psicothema es tu rollo y puede que estés 100% en lo cierto, pero ese es tu rollo, no el mío. Y tampoco veo por qué confundes que no opine con un silencio cómplice. De todos modos, y por si acaso te importase, te diré no estoy para nada de acuerdo con esas prácticas. Finalmente, te pido que releas sin apasionamiento lo que escribiste en aquel e-mail y mi primera respuesta, y verás que lo que dije de Redalyc no tiene

Page 28: 2013 oct Debate sobre calidad de las revistas científicas · tuvieron una mayor tasa de aceptación, y el artículo dice: "Los resultados muestran ... electrónica y el open access.

28

nada que ver con esto que tanto te ha enojado. Mira, allí escribiste “Publicar tantos títulos mediocres detrae recursos que podrían ser mejor utilizados. Volveré a ser claro, todo el esfuerzo y recursos utilizadios para producir el (deficiente) sistema Redalyc estaría mejor empleado en construir LA gran revista multidisciplinar iberoamericana”. No hay una sola mención a ética, usurpación, engaño, manipulación o prácticas similares. Si, en cambio, dices con toda claridad que habría que gastar los recursos que se invierten en sostener Redalyc en construir la gran revista iberoamercana. Pues eso es en lo que discrepo, no necesariamente en el hecho de que Redalyc pueda ser malo (de todos modos, sigo sosteniendo que no todas las revistas allí alojadas manipulan, usurpan, engañan, etc.) sino en que gastar ese dinero en “la” gran revista iberoamericana es un dislate. Finalmente, y dejando ahora de lado la discusión particular de tus opiniones, me hubiese gustado alguna palabra tuya aceptando que te pasaste “un par de pueblos” en alguno de los párrafos de tu primer e-mail. Te prometo que no es psicología berreta, pero me parece que un pelín de humildad y claridad por aquí y otro pelín menos de ofuscación por allá tornarían mucho más constructivo el debate, si es que de verdad te interesase. Por otra parte, no te enojes tanto con los recursos literarios, que no son más que eso. Ya te he dicho que no era mi intención ofenderte; es cierto que la pimienta pica, pero también condimenta. Un abrazo y hasta la próxima. Edgardo El 11/10/2013 09:15, Isidro F. Aguillo escribió: [El texto citado está oculto]

Pablo de Castro <[email protected]> 12 de octubre de 2013

15:34Responder a: Pablo de Castro <[email protected]> Para: [email protected]

Buenas tardes, En la medida en la que es posible seguir una (interesante) discusion a traves de repetidos cambios de lista, absurdas declaraciones de amor a un mediterraneo tan amable como corrupto hasta las cejas y surrealistas respuestas de pagina y media plagadas de extemporaneas referencias pseudo-psicoanaliticas, celebro que por una vez (y sin que sirva de precedente) haya cierto impulso regeneracionista en un debate abierto en una lista de distribucion de la disciplina. Desde la (saludable) distancia, se aprecia --y se valora-- un punto de vista riguroso y centrado en el intento analizar algunas de las problematicas endemicas en el ambito de la comunicacion cientifica a traves de las asi llamadas revistas de investigacion, por oposicion a las respuestas que apelan a las descalificaciones 'ad hominem' (siempre producto de la falta de argumentos) y a las tan habituales como prescindibles celebraciones de la amistad entre los pueblos hispanohablantes y sus asi llamados profesionales de la gestion de la informacion. Es dificil que las atinadas reflexiones no caigan en saco roto, rodeadas como estan

Page 29: 2013 oct Debate sobre calidad de las revistas científicas · tuvieron una mayor tasa de aceptación, y el artículo dice: "Los resultados muestran ... electrónica y el open access.

29

por una maraña de intereses que apenas alcanzan a disfrazarse tras la cortina de humo de las palabras, pero se agradece en todo caso el esfuerzo de introducir cierto rigor y cierta sensatez en el debate en una disciplina en la que la ausencia de controles suficientes en los procesos de publicacion es el menor de los escandalos. La autentica cuestion de fondo es a quien se supone que ha de servir la asi llamada infraestructura de comunicacion cientifica que estamos mal que bien construyendo, y en caso de que la hipotetica respuesta fuera "a los academicos y a sus instituciones", cómo es que estos estan desde siempre sistematicamente ausentes de los (con frecuencia escualidos) debates. No creo que sea preciso repetir que, como la mayor parte de las contribuciones que se vierten a la lista, esto es tambien una opinion. Pero entre tanto formalismo destinado a disfrazar la ausencia de interes en abordar los problemas reales, no esta de mas reiterarlo una vez mas. Celebrar por ultimo la iniciativa de convocar peer-reviewers voluntarios para la revista Biblios desde Argentina, http://biblios.pitt.edu/ojs/index.php/biblios/announcement/view/5 -- en la que es de hecho una de de las pocas iniciativas constructivas surgidas de (o cuando menos relacionadas con) este debate que uno ha sido capaz de encontrar. Un saludo, Pablo ----- Pablo de Castro UK RepositoryNet+ Project EDINA The University of Edinburgh Causewayside House 160 Causewayside Edinburgh EH9 1PR [email protected] http://www.repositorynet.ac.uk/

Isidro F. Aguillo <[email protected]> 14 de octubre de 2013

12:35Responder a: "Isidro F. Aguillo" <[email protected]> Para: [email protected]

Saludos desde Madrid,

Me gustaría regresar al núcleo del debate, pidiendo disculpas a Edgardo por no contestar directamente a su largo mensaje, que no es por desconsideración, sino por no alejarnos del tema original.

- En mi opinión, los defensores del OA, entre los que me encuentro, están primando una característica deseable de las revistas científicas, como es el acceso abierto sobre otra que es clave, la calidad de sus contenidos. Hay poca auto-crítica y eso explica el quizás excesivo solivianto que ha generado el artículo de

Page 30: 2013 oct Debate sobre calidad de las revistas científicas · tuvieron una mayor tasa de aceptación, y el artículo dice: "Los resultados muestran ... electrónica y el open access.

30

Science que básicamente encuentra prácticas no deseables en las revistas que exigen pago por publicar, sean o no de acceso abierto. Y ciertamente en esto hay más culpables que los editores de las revistas ya que estos se aprovechan de la creciente presión por publicar, de las malas prácticas por parte de algunos autores y revisores y de la poca profesionalidad de evaluadores, sean individuales o agencias gubernamentales.

Como profesional de la información me preocupa especialmente que ciertos productos documentales que han adquirido una gran (¿inmerecida?) relevancia sean usados de manera indiscriminada, cuando no errónea, en los procesos de evaluación, utilizando como excusa y justificación, una ahora sacralizada defensa del OA que parece dar patente de corso a cualquier iniciativa. Creo que es necesario ser crítico, pero al mismo tiempo deseo contribuir en la medida de mis conocimientos con alguna sugerencia:

- Latindex. Incluso con la actual pujanza de la ciencia iberoamericana y el incremento de la inversión en I+D en la región es poco justificable el "gigantesco" número de títulos aceptados en este directorio. Su apuesta por un Catálogo construido a partir del cumplimiento de unos criterios de "calidad" me índica que no son neutros respecto a la utilización del mismo por parte de los evaluadores. Aquí caben varias posibilidades (sugerencias): (a) Se retorna a un mero listado descriptivo, eliminando el catálogo; (b) Se es más riguroso en la selección de títulos para el catálogo, eliminando miles de ellos; (c) se establece una clasificación dentro del catálogo, donde aparezcan categorías que verdaderamente indiquen excelencia (mi propuesta original).

- Redalyc. Empezaré diciendo que me parece indignante que se añada una nueva portada al pdf de los artículos (donde parece que Redalyc se apropia de la cabecera) y se proponga citar a los mismos con una url de la propia Redalyc distinta a la de la fuente original. Incluso aunque ello forme parte de los acuerdos con los editores (que me extrañaría) creo que viola flagrantemente mis derechos como autor. Ya señalé además que Redalyc ha comenzado una campaña muy agresiva de promoción de sus propios indicadores, que a partir exclusivamente de las revistas que incluye (una fracción de las de acceso abierto de la región) publica informes sobre la producción científica de los países. Desconozco si cobra por ello, pero incluso si así no fuera, esos informes son manifiestamente sesgados, incompletos, inexactos e inútiles, en mi opinión claro.

- Scielo. Desconozco en detalle los acuerdos con Thomson, pero al parecer el dinero solicitado por esta empresa para incluir los títulos de Scielo es únicamente para la utilización de la plataforma WoK, nunca para ser incluidos en la base de citas WoS. Me explico, el dinero es para que Scielo tenga más visibilidad, no para que las excelentes revistas latinoamericanos todavía no presentes en el "ISI" sean aceptadas allí. Quizás ese dinero y una política menos inclusiva de Scielo podría proporcionar recursos para la mejora formal y sustantiva de un grupo selecto de revistas que podrían ser aceptadas por méritos propios.

Puedo estar equivocado y estaría encantado de abrir el debate sobre estos temas, pero me rebelaré ante cualquier intento de censura invocando ataques personales. No ha sido nunca mi intención descalificar a una persona por razón de edad, sexo, raza o religión, pero si alguien actua poco profesionalmente, con manifiesta falta de ética o con actividades ilegítimas me consideraré en la obligación de

Page 31: 2013 oct Debate sobre calidad de las revistas científicas · tuvieron una mayor tasa de aceptación, y el artículo dice: "Los resultados muestran ... electrónica y el open access.

31

denunciarlo siempre que tenga evidencias de ello.

Vuestro turno,

ANGELES.MALDONADO.MARTINEZ.11111 <[email protected]>

14 de octubre

de 2013

17:55Responder a: "ANGELES.MALDONADO.MARTINEZ.11111" <[email protected]> Para: [email protected]

Hola a todos, siguiendo con el debate inicial planteado por Isidro me gustaría decir que efectivamente ninguno de los directorios ni repositorios que el cita hace una evaluación “sustancial” de las revistas que contiene, si con ello se refiere a que no evalúan su impacto medido en citas. Sin embargo, no estoy de acuerdo con él, cuando los descalifica tajantemente por ello, pues seguro que hacen lo que está en su mano para contribuir a difundir la producción científica de los países latinoamericanos. Al contrario que él, yo dirigiría mis críticas hacia las instituciones que rigen la política científica en España y el resto de los países de América Latina, que a pesar de incrementar las evaluaciones de proyectos y personas, no han sido capaces ni de crear ni de financiar decididamente y de forma continuada un producto documental en el que basar esas evaluaciones, donde las citas y otros criterios de calidad relacionados con el impacto sean tenidos en cuenta. Isidro, tu y todos sabemos que crear y mantener un producto documental de tal naturaleza no es una tarea fácil, ni por supuesto barata. Si un país y/o una región quiere contar con una herramienta fiable que ayude a evaluar a sus científicos, en mi opinión las instituciones responsables de diseñar la política científica deben implicarse y coordinarse mucho más. Un cordial saludo, Angeles Maldonado Unidad de Bases de Datos ISOC CCHS/CSIC

Isidro F. Aguillo <[email protected]> 14 de octubre de 2013

18:34Responder a: "Isidro F. Aguillo" <[email protected]> Para: [email protected]

Estimada Angeles: Encuentro algunas inconsistencias en tus argumentos:

Page 32: 2013 oct Debate sobre calidad de las revistas científicas · tuvieron una mayor tasa de aceptación, y el artículo dice: "Los resultados muestran ... electrónica y el open access.

32

- Los productos que señalas han sido realizados por instituciones o consorcios donde predomina lo público, es decir que si ha habido un esfuerzo regional por crear y financiar dichas iniciativas. Mi punto es que en la actualidad se quedan cortas y ante la generalizada (auto-)"ovación" que se prodigan parece que no haya necesidad de que evolucionen y asuman correctamente las tareas que ellas mismas, aunque sean indirectamente, han propiciado (catálogo de Latindex, indicadores en Redalyc, acuerdos con Thomson en Scielo) . - La difusión de la producción científica de los países latinoamericanos no debería consistir unicamente en hacer "visible" sus contribuciones a los PROPIOS LATINOAMERICANOS, sino que debe estar dirigido a un publico autenticamente global. Ello requiere, en mi opinión, títulos de referencia, con viabilidad económica garantizada, rigurosos controles de calidad y si es posible auténtico acceso abierto (no del tipo pagar por publicar). Yo no sabría hacerlo, pero algunos de los pioneros detrás de esas iniciativas quizá podría evaluar qué esfuerzo (y recursos) merece la pena: Miles de títulos con problemas o unas docenas con calidad. Vuestro turno, [El texto citado está oculto] -- [El texto citado está oculto]

Edgardo Ortiz Jaureguizar <[email protected]> 14 de octubre de

2013 23:20Responder a: Edgardo Ortiz Jaureguizar <[email protected]> Para: [email protected]

Hola a todos: La indignación de mucha gente por el artículo de Bohannon tiene varias causas, algunas claramente expuestas (o escondidas) en el propio propio artículo, otras vinculadas con la forma en que se publicó, y otras relacionadas con cuestiones más "subjetivas", pero no por ello menos intersantes. En el primer grupo está el hecho de que no existe un "control" en el trabajo de Bohannon, contra el cual testear los resultados. En efecto, para ello el autor debería haber realizado envíos similares a revistas por suscripción (con y sin implementación de la posibilidad de pagar para tornar al artículo de acceso abierto). En el segundo grupo está el hecho de que el trabajo no fue publicado en una sección arbitrada de Science, sino en una que no lo requiere. La pregunta obvia es si la revista había aceptado un trabajo con fallas tan elentales como la que se menciona precedentemente. Esto da pie al tercer tipo de objeciones, donde se mencionan cosas como el interés de las grandes editoriales de disminuir el papel de la editoriales OA por que se resiente el negocio, etc.. Para no abundar, recomiendo leer los siguiente posts: http://oaspa.org/response-to-the-recent-article-in-science/ y http://svpow.com/2013/10/07/anti-tutorial-how-to-design-and-execute-a-really-bad-study/ En cuanto al tema de las instituciones y consorcios, es cierto que hay un predominio de la financiación a partir de fondos públicos. Por otro lado, no es cierto que ninguno haga evaluaciones de citas. En este sentido, en Scielo se ven comportamientos diferentes, ya que depende de cada pais (por ejemplo, Brasil y Chile usan datos propios y de Scimago, mientras qu Argentina no). En cuanto a Latindex, en un principio la idea era tenerr estadísticas propias, pero esa línea

Page 33: 2013 oct Debate sobre calidad de las revistas científicas · tuvieron una mayor tasa de aceptación, y el artículo dice: "Los resultados muestran ... electrónica y el open access.

33

luego se abandonó. Finalmente, aun dentro de algunos paises latinoamericanos (Argentina, para ser más específico) el CONICET (el equivalente al CSIC español) apoya financieramente un sistema de evaluación de la calidad de las revistas argentinas, pero a la hora de las evaluaciones de los científicos lo que termina pesando es el FI (ya sea del SCI o del SSCI) y el h tomado de Scopus. Finalmente, el tema de a quién van dirigidos los aetículos publicados en las revistas latinoamericanas merece una discusión más extensa. En mi último email señalé brevemente la incidencia de la geografía en los artículos científicos. No creo que a toda la comunidad científica biomédica se interese por igual por un estudio sobre el HIV que sobre el mal de Chagas, aunque si a la comunidad biomédica latinoamericana le interesarían ambas temáticas por igual; y lo mismo vale para los trabajos etnográficos sobre la comunidad Qom del gran La Plata o los paleontológicos acerca de los abderítidos del Mioceno medio de Patagonia. Está claro que en cada una de estas temáticas se pueden tratar enfoques o utilizar métodos que sean de interés para una comunidad global, pero también hay cuestiones más locales que no tendrían cabida en una revista de corriente principal pero si en una local o regional. Si hay un buen editor, un buen comité arbitral, normas editoriales claras y acordes con los estándares internacionales, y presencia en línea, no veo por qué las revisas de alcance local o regional deberían desaparecer. Un abrazo y hasta la próxima. Edgardo El 14/10/2013 13:34, Isidro F. Aguillo escribió: [El texto citado está oculto] [El texto citado está oculto]

Ángeles Maldonado <[email protected]> 15 de octubre de

2013 10:23Responder a: Ángeles Maldonado <[email protected]> Para: [email protected]

Buenos días a todos, estimado Isidro, me gustaría contestarte a lo que tu consideras inconsistencias por mi parte. - Los productos que señalas han sido realizados por instituciones o consorcios donde predomina lo público, es decir que si ha habido un esfuerzo regional por crear y financiar dichas iniciativas. Efectivamente, pero ninguna de ellas es responsable de diseñar la política científica de su país. Mi punto es que en la actualidad se quedan cortas y ante la generalizada (auto-)"ovación" que se prodigan parece que no haya necesidad de que evolucionen y asuman correctamente las tareas que ellas mismas, aunque sean indirectamente, han propiciado (catálogo de Latindex, indicadores en Redalyc, acuerdos con Thomson en Scielo) .

Page 34: 2013 oct Debate sobre calidad de las revistas científicas · tuvieron una mayor tasa de aceptación, y el artículo dice: "Los resultados muestran ... electrónica y el open access.

34

Estoy segura de que las instituciones responsables de todos los productos documentales que citas son conscientes de la naturaleza de los mismos y del alcance que tienen, pero a mí me da por pensar que quizás no tengan la capacidad para convertirse en ese otro producto documental más evolucionado. - La difusión de la producción científica de los países latinoamericanos no debería consistir unicamente en hacer "visible" sus contribuciones a los PROPIOS LATINOAMERICANOS, sino que debe estar dirigido a un publico autenticamente global. Estoy de acuerdo en que esto no es suficiente, pero reconoceras conmigo, que hacer visible lo que antes no lo era, ya es un valor en si mismo, y merece ser reconocido, aunque no sobrevalorado. Por algo se empieza. Ello requiere, en mi opinión, títulos de referencia, con viabilidad económica garantizada, rigurosos controles de calidad y si es posible auténtico acceso abierto (no del tipo pagar por publicar). También coincido contigo en que son necesarios títulos de referencia con rigurosos controles de calidad, y si son de acceso libre mejor, pero la diferencia está en que yo creo que hay títulos así en muchas disciplinas y países, pero que no llegan a la comunidad científica mundial por un problema de idioma. Lo anterior no quiere decir que no se deba trabajar para que cada vezhaya más títulos con esas características. Yo no sabría hacerlo, pero algunos de los pioneros detrás de esas iniciativas quizá podría evaluar qué esfuerzo (y recursos) merece la pena: Miles de títulos con problemas o unas docenas con calidad. A mí me parece bien que haya unas revistas que alcancen unos niveles muy altos al ser evaluadas con unos ciertos criterios y que se las destaque por ello, pero también creo que pueden convivir con otras muchas que sin alcanzar esos niveles tan altos también están cumpliendo una función de difusión de la ciencia. Recuerda que en las bases del Wos para eso están los cuartiles. Un cordial saludo, Angeles Maldonado Unidad de Bases de datos ISOC CCHS/CSIC [El texto citado está oculto] --

Isidro F. Aguillo <[email protected]> 15 de octubre de 2013

12:27Responder a: "Isidro F. Aguillo" <[email protected]> Para: [email protected]

Hola de nuevo: Ahora hago honor a tu esfuerzo (¡gracias!) e incluyo algunos comentarios

Page 35: 2013 oct Debate sobre calidad de las revistas científicas · tuvieron una mayor tasa de aceptación, y el artículo dice: "Los resultados muestran ... electrónica y el open access.

35

On 14/10/2013 23:20, Edgardo Ortiz Jaureguizar wrote: Hola a todos: La indignación de mucha gente por el artículo de Bohannon tiene varias causas, algunas claramente expuestas (o escondidas) en el propio propio artículo, otras vinculadas con la forma en que se publicó, y otras relacionadas con cuestiones más "subjetivas", pero no por ello menos intersantes. En el primer grupo está el hecho de que no existe un "control" en el trabajo de Bohannon, contra el cual testear los resultados. En efecto, para ello el autor debería haber realizado envíos similares a revistas por suscripción (con y sin implementación de la posibilidad de pagar para tornar al artículo de acceso abierto). En el segundo grupo está el hecho de que el trabajo no fue publicado en una sección arbitrada de Science, sino en una que no lo requiere. La pregunta obvia es si la revista había aceptado un trabajo con fallas tan elentales como la que se menciona precedentemente. Esto da pie al tercer tipo de objeciones, donde se mencionan cosas como el interés de las grandes editoriales de disminuir el papel de la editoriales OA por que se resiente el negocio, etc.. Para no abundar, recomiendo leer los siguiente posts: http://oaspa.org/response-to-the-recent-article-in-science/ y http://svpow.com/2013/10/07/anti-tutorial-how-to-design-and-execute-a-really-bad-study/ En los últimos días Stevan Harnad ha venido circulando mensajes en los que propone rebajar la respuesta al articulo de Bohannon ya que no afecta para nada a la vía verde (repositorios) ni a la dorada (sin pago por el autor) que son las que en su opinión deben centrar los esfuerzos del movimiento Open Access. En todo caso parece insistir en la disponibilidad de listas "negras" de revistas (y editores) estafadores y sin escrúpulos. Mi propuesta no era exactamente igual, ya que lo que sugería son listas más estrictas con una clasificación basada no solo en criterios formales. En cuanto al tema de las instituciones y consorcios, es cierto que hay un predominio de la financiación a partir de fondos públicos. Por otro lado, no es cierto que ninguno haga evaluaciones de citas. En este sentido, en Scielo se ven comportamientos diferentes, ya que depende de cada pais (por ejemplo, Brasil y Chile usan datos propios y de Scimago, mientras qu Argentina no). En cuanto a Latindex, en un principio la idea era tenerr estadísticas propias, pero esa línea luego se abandonó. Finalmente, aun dentro de algunos paises latinoamericanos (Argentina, para ser más específico) el CONICET (el equivalente al CSIC español) apoya financieramente un sistema de evaluación de la calidad de las revistas argentinas, pero a la hora de las evaluaciones de los científicos lo que termina pesando es el FI (ya sea del SCI o del SSCI) y el h tomado de Scopus. En este caso me estaba refiriendo obviamente a las revistas no solapadas con WoS o Scopus. El resto, la mayoría, no tienen datos de citas y lo curioso es que sí podrían hacerlo teniendo en cuenta que WoS incluye las citas también de las revistas no fuente. Esa es la base del muy interesante trabajo del grupo EC3 de la Universidad de Granada: http://ec3.ugr.es/in-recs/

Finalmente, el tema de a quién van dirigidos los aetículos publicados en las

Page 36: 2013 oct Debate sobre calidad de las revistas científicas · tuvieron una mayor tasa de aceptación, y el artículo dice: "Los resultados muestran ... electrónica y el open access.

36

revistas latinoamericanas merece una discusión más extensa. En mi último email señalé brevemente la incidencia de la geografía en los artículos científicos. No creo que a toda la comunidad científica biomédica se interese por igual por un estudio sobre el HIV que sobre el mal de Chagas, aunque si a la comunidad biomédica latinoamericana le interesarían ambas temáticas por igual; y lo mismo vale para los trabajos etnográficos sobre la comunidad Qom del gran La Plata o los paleontológicos acerca de los abderítidos del Mioceno medio de Patagonia. Está claro que en cada una de estas temáticas se pueden tratar enfoques o utilizar métodos que sean de interés para una comunidad global, pero también hay cuestiones más locales que no tendrían cabida en una revista de corriente principal pero si en una local o regional. Si hay un buen editor, un buen comité arbitral, normas editoriales claras y acordes con los estándares internacionales, y presencia en línea, no veo por qué las revisas de alcance local o regional deberían desaparecer. No creo haber sido tan maximalista. Suponiendo que se realizara un brutal reducción de títulos del 50% (que creo deseable, pero es posiblemente inviable incluso a medio plazo) aún quedarían miles de ellos para los aspectos locales o regionales. Además hay otros medios de comunicación no formales que pueden ser utilizados para complementar como blogs y redes sociales. Vuestro turno, Un abrazo y hasta la próxima. Edgardo

[El texto citado está oculto]

Isidro F. Aguillo <[email protected]> 15 de octubre de 2013

13:08Responder a: "Isidro F. Aguillo" <[email protected]> Para: [email protected]

Estimada Angeles: On 15/10/2013 10:23, Ángeles Maldonado wrote: Buenos días a todos, estimado Isidro, me gustaría contestarte a lo que tu consideras inconsistencias por mi parte. - Los productos que señalas han sido realizados por instituciones o consorcios donde predomina lo público, es decir que si ha habido un esfuerzo regional por crear y financiar dichas iniciativas. Efectivamente, pero ninguna de ellas es responsable de diseñar la política científica de su país.

De acuerdo, pero conscientemente (intencioandamente?) o no, están influyendo y de forma muy activa.

Page 37: 2013 oct Debate sobre calidad de las revistas científicas · tuvieron una mayor tasa de aceptación, y el artículo dice: "Los resultados muestran ... electrónica y el open access.

37

Mi punto es que en la actualidad se quedan cortas y ante la generalizada (auto-)"ovación" que se prodigan parece que no haya necesidad de que evolucionen y asuman correctamente las tareas que ellas mismas, aunque sean indirectamente, han propiciado (catálogo de Latindex, indicadores en Redalyc, acuerdos con Thomson en Scielo) . Estoy segura de que las instituciones responsables de todos los productos documentales que citas son conscientes de la naturaleza de los mismos y del alcance que tienen, pero a mí me da por pensar que quizás no tengan la capacidad para convertirse en ese otro producto documental más evolucionado. La experiencia dice que estas organizaciones se han enfrentado a retos considerables y que han sido bastante exitosas al menos en la creación de grandes y complejas plataformas de revistas. Lo que digo es que es momento de empezar una segunda fase y critico alguna de las decisiones que ya han tomado algunos al iniciar de hecho esa segunda fase - La difusión de la producción científica de los países latinoamericanos no debería consistir unicamente en hacer "visible" sus contribuciones a los PROPIOS LATINOAMERICANOS, sino que debe estar dirigido a un publico autenticamente global. Estoy de acuerdo en que esto no es suficiente, pero reconoceras conmigo, que hacer visible lo que antes no lo era, ya es un valor en si mismo, y merece ser reconocido, aunque no sobrevalorado. Por algo se empieza. Estoy leyendo bastantes trabajos en los que se propone utilizar para la evaluación no ya la producción indizada (por Wos y/o Scopus), sino solo aquella del primer cuartil o que está entre el 10% más citada. En España la mayoría de las universidades publican ya más del 50% de sus artículos en el primer cuartil (que por definición solo supone el 25% de los títulos). Por tanto, ya no es momento de "empezar". A partir de ahí se pueden adoptar varías vías, yo critico el excesivo enfasis en ciertos modelos de acceso abierto, el desinteres en mejorar la calidad sustancial y ciertas formas de dar valor añadido mediante indicadores cualitativos y cuantitativos. Ello requiere, en mi opinión, títulos de referencia, con viabilidad económica garantizada, rigurosos controles de calidad y si es posible auténtico acceso abierto (no del tipo pagar por publicar). También coincido contigo en que son necesarios títulos de referencia con rigurosos controles de calidad, y si son de acceso libre mejor, pero la diferencia está en que yo creo que hay títulos así en muchas disciplinas y países, pero que no llegan a la comunidad científica mundial por un problema de idioma. Lo anterior no quiere decir que no se deba trabajar para que cada vez haya más títulos con esas características. ¿Es solo un problema de idioma?. ¿La calidad no influye?

Page 38: 2013 oct Debate sobre calidad de las revistas científicas · tuvieron una mayor tasa de aceptación, y el artículo dice: "Los resultados muestran ... electrónica y el open access.

38

Yo no sabría hacerlo, pero algunos de los pioneros detrás de esas iniciativas quizá podría evaluar qué esfuerzo (y recursos) merece la pena: Miles de títulos con problemas o unas docenas con calidad. A mí me parece bien que haya unas revistas que alcancen unos niveles muy altos al ser evaluadas con unos ciertos criterios y que se las destaque por ello, pero también creo que pueden convivir con otras muchas que sin alcanzar esos niveles tan altos también están cumpliendo una función de difusión de la ciencia. Recuerda que en las bases del Wos para eso están los cuartiles. Gracias por sacar mi tema favorito: España paga del orden de una docena de millones de dólares por las licencias nacionales de WoS y Scopus. Las 400 licencias sirven fundamentalmente para que muchos sepamos cual es nuestro h, ya que como base bibliográfica es mucha más amplia y útil la gratuita Google Scholar. Seguro que tener 400 es mejor que solo 20 ó 30 (las que realmente se necesitan), pero esos millones de euros salen de la bolsa común que financia la I+D en nuestro páis. Es decir, el dinero con que se podrían financiar varios cientos de investigadores junior cada año. Producir Scielo, Redalyc o Latindex no es gratis, consumen recursos de por si escasos, y ademas de eficaces debemos pedir que sean eficientes. Vuestro turno, [El texto citado está oculto] -- ******************************

Emilio Delgado López-Cózar <[email protected]> 18 de octubre de 2013

12:31Responder a: Emilio Delgado López-Cózar <[email protected]> Para: [email protected]

Llego al debate cuando ya se ha apagado el eco del mismo, pero desvelos diversos me han impedido intervenir antes en tan enjundiosa controversia y con tan sugestivas y aquilatadas opiniones. Me centraré en el tema sobre el que discurre fundamentalmente el estudio de Bohannon y que Tomás nos transmitió con el provocador título de “Editoriales OA estafadoras y sin escrúpulos” y orillaré las derivadas del mismo (criterios, herramientas, sistemas de evaluación de las revistas científicas iberoamericanas, políticas editoriales y científicas), no por falta de criterio ni de ganas sino por ser operativo y no desviar la atención sobre lo más relevante de este estudio. Perdonad la extensión, pero ha salido así la cosa. A mi entender el estudio publicado por Bohannon, es muy relevante y trascendente por varias razones: - Porque pone en entredicho, -una vez más-, uno de los pilares centrales de la ciencia y de la comunicación científica: la fiabilidad y validez del sistema de control y certificación del conocimiento científico ejercido a través del peer review en las revistas.

Page 39: 2013 oct Debate sobre calidad de las revistas científicas · tuvieron una mayor tasa de aceptación, y el artículo dice: "Los resultados muestran ... electrónica y el open access.

39

- Porque al focalizar su experimento solo en revistas OA, y desvelar sus debilidades, está indirectamente poniendo en tela de juicio a todo el movimiento Open Access. - Porque evidencia las contradicciones existentes entre los distintos modelos económicos que anidan en la comunicación científica, en general, y en el Open Access, en particular. - Porque aflora el problema de fondo que actúa como caldo de cultivo de las actuaciones fraudulentas en ciencia: la presión que sienten los científicos por publicar, avivada por los sistemas de evaluación del rendimiento investigador que ponen a la publicación y a su impacto como las varas de medir del éxito científico y académico. En definitiva, es un auténtico crisol de los problemas históricos que se ciernen sobre la comunicación científica. Y no le restaría importancia, como opinan algunos colegas, porque es un trabajo aparecido en una revista como Science, una de esas revistas que salen en los noticiarios de todo el mundo y que son una fuente de información imprescindible para científicos, profesionales, periodistas y público, en general. Por tanto, la audiencia que alcanza este trabajo, para bien o para mal, se amplifica. Estoy muy de acuerdo con los que han manifestado que el mensaje que se envía es letal para la credibilidad científica del acceso abierto, una credibilidad que se había construido lenta y afanosamente. Sirvan de botón de muestra estos titulares de algunos periódicos Bogus science paper reveals peer review's flaws (cbc), Hundreds of open access journals accept fake science paper (The Guardian), Open access: du rêve au cauchemar? (Libération). No obstante, los profesionales de la información científica debiéramos tener claro cuáles son realmente los objetivos de este trabajo, cuales sus las fortalezas y debilidades metodológicas, y qué grado de extrapolación admiten los resultados. Solo así podríamos frenar las malinterpretaciones que puedan derivarse. Pues bien: Objetivo del estudio: Su principal finalidad es poner al descubierto las malas prácticas editoriales, por no hablar de actuaciones corruptas, de las revistas OA que figuran en los listados de publicaciones “depredadoras” elaborado por Beall en la de selección y evaluación de los originales que publican. ¿Están montadas estas editoriales simplemente para obtener pingües beneficios sin importarle la calidad de la ciencia que publican? Este fue el motivo primario que dio pie a realizar el estudio. Sin embargo, la no selección aleatoria de la muestra, -lo lógico en estos casos-, y su ampliación a revistas que figuran en el directorio DOAJ, el archiconocido y repertorio de revistas OA –un referente para OA-, nos hace pensar que había otro objetivo manifiesto: comprobar en qué medida es cierta una sospecha extendida sobre el modelo económico OA, basado en el “pago por publicación”. ¿Afecta el pago por publicar al rigor del proceso de peer review de los artículos publicados en revistas OA que adoptan este modelo de financiación? O por decirlo de manera más cruda ¿Influye los intereses monetarios en las decisiones científicas? Pero la inclusión de revistas como PLOS ONE, el abanderado de este modelo, o de algunas revistas apadrinadas por Biomedcentral, la editorial más reputada de los pioneros del movimiento, junto a revistas promovidas por grandes editores (muchas de ellas agrupadas en OASPA: Open Access Scholarly Publishers Association) que han sido las que han ido demostrando que era posible competir con las revistas tradicionales (incluso en el impacto científico, que es el factor que

Page 40: 2013 oct Debate sobre calidad de las revistas científicas · tuvieron una mayor tasa de aceptación, y el artículo dice: "Los resultados muestran ... electrónica y el open access.

40

hoy proporciona la reputación académica) me hace sospechar que Bohannon, y por elevación Science, han querido realmente poner en evidencia a todas las revistas que cuestionan el modelo económico tradicional en el que opera Science (pagar por leer, modelo sucripción). Recordemos que PLOS ONE pasó de publicar 137 trabajos en 2006 a 23.452 en 2012 (un atuéntico emporio de riqueza, teniendo en cuenta que los gastos de publicación por artículo son 1350$; lucrativo negocio, sin duda). Y lo que es más importante, PLOS ONE sola publicó en 2012 más artículos que Science en 7 años ¿le está robando el mercado? Demos datos para alimentar el debate: el número de artículos OA crece a un ritmo del 24% al año en Scopus (Larriviere et al. 2013) Podemos especular sobre las motivaciones de Science para realizar el trabajo de Bohannon; estas son las evidencias empíricas. Metodología del estudio: Se ha dicho, y es verdad, que los sesgos metodológicos del estudio son variados. Véamoslos: El primero y más importante es que la muestra no ha sido seleccionada aleatoriamente. La consecuencia de esta decisión es clara: lo resultados del estudio no pueden ser extrapolados en estricto sentido a la población diana (revistas OA), ni siquiera a aquellas que figuran en el Directorio DOAJ o en el listado Bell. Procedimientos no probabilísticos opináticos, como el empleado en este estudio no generan muestrans representativas: los resultados solo pueden ser aplicados a aquellas revistas analizadas . Ahora bien, dicho esto, haremos mal en centrar todo nuestro discurso en descalificar el mensaje central del dicho trabajo: la llamada de atención es importante, porque número de revistas sometidas al experimento es más que suficiente como para no preocuparnos por los resultados alcanzados El segundo problema metodológico es el del diseño propiamente dicho. Para estar plenamente seguros de que las revistas OA tienen comportamientos radicalmente distintos al resto de revistas, era necesario haber trabajado con grupos de control (revistas no OA). Realmente lo ideal hubiera sido crear varios grupos de control seleccionados aleatoriamente donde se hubieran utilizado otras variables para estratificar la muestra: procedencia geográfica, tipo de editorial (grandes, medianas, pequeñas editoriales), impacto científico (alto, bajo impacto). Ello hubiera permitido identificar exactamente donde se encuentra el problema, cuál es su gravedad y a quien afecta realmente. No obstante, y a pesar de estos sesgos metodológicos, el estudio posee un inestimable valor y hay que incardinarlo en la línea de los trabajos que tradicionalmente han supuesto una llamada de atención generalizada a las debilidades del peer review. Este tipo de experimentos son todo un clásico en este campo. El estudio de Peters y Ceci (1982) fue el primero que fabricó documentos para desvelar las debilidades del peer review. Utilizó 12 artículos ya publicados en revistas de máximo prestigio en Psicología a los que aplicó cambios cosméticos en la presentación , alterando, asimismo los nombres y filiaciones profesionales de los autores, para someterlos de nuevo a las revistas donde se habían publicado de 18 a 32 meses antes. El resultado fue que sólo tres editores detectaron las remisiones falsas. Y por si fuera poco el 89% de los revisores no recomendaron su publicación por “serias deficiencias metodológicas”. En 1990 fue Epstein con otro experimento con documentos fabricados al efecto, quien puso en evidencia y los

Page 41: 2013 oct Debate sobre calidad de las revistas científicas · tuvieron una mayor tasa de aceptación, y el artículo dice: "Los resultados muestran ... electrónica y el open access.

41

sesgos en la evaluación de más de 70 revistas de trabajo social. Y en 1996 fue Sokal, cuyo caso tuvo una enorme repercusión, quien se inventó un artículo lleno de absurdas construcciones matemáticas y de intepretaciones insensatas y disparatadas, y lo colocó en una prestigiosa revista de Ciencias Sociales / (http://en.wikipedia.org/wiki/Sokal_affair). Me manifiesto totalmente a favor de estos heterodoxos experimentos (yo mismo los he practicado en un experimento que intenta demostrar lo fácil que es manipular google scholar y sus derivados bibliométricos). Muchas personas bienintencionadas se rasgarán las vestiduras porque es posible que no cumplan los escrupulosos criterios metodológicos exigidos por el método científico y atenten a las normas del ethos científico. A veces hay que dar golpes en la mesa para denunciar irregularidades, acabar con corsés que impiden que la ciencia progrese o eliminar las prácticas indeseables. Estos trabajos encienden los sistemas de alerta de la ciencia. Resultados del estudio Centrémonos en cuales son los principales resultados derivados del estudio: - El 61% de las revistas aceptaron el artículo falseado (157 revistas) - El 59,6% aceptaron o rechazaron el artículo sin revisión alguna (152 revistas). - El 52,2% de las revistas que aceptaron el trabajo (82 revistas) no realizaon revisión alguna. Este dato es demoledor. - Solo el 17% de las revistas aplicó una revisión substancial del trabajo La mayoría de las revistas que figuran en el listado Beall presentan los peores comportamientos: fueron las que más aceptaron el artículo: duplicaron la tasa de aceptación (70%) frente a las revistas DOAJ y fueron las que más aceptaron el artículo sin revisión alguna (56 frente al 45%). La conclusión es evidente: la denominación de “revistas depredadoras y sin escrúpulos” (añadiría corruptas y bandidas) le viene como anillo al dedo. Señalarlas públicamente, de nuevo, es una de las mejores contribuciones del trabajo de Bohannonn. De hecho ya ha tenido consecuencias: una revista croata afectada ha dejado de publicarse (http://retractionwatch.wordpress.com/2013/10/17/fallout-from-sciences-publisher-sting-journal-closes-in-croatia/). Asimismo, tiene una derivada importante: se ha puesto en solfa el sistema de control que ejerce el principal directorio de revistas OA del mundo que es DOAJ. El comunicado publicado por DOAJ el 10 el octubre pasado como reacción es poco convincente. El hecho de que “desde el 1 de agosto de 2013 DOAJ haya añadido 348 nuevos títulos al Directorio, pero también haya eliminado o expurgado a 329 revistas que no cumplieron con los criterios actuales para la inclusión” no suena más que a justificación tardía. Me pregunto: ¿Por qué figuran tantas revistas en DOAJ que han demostrado un tan deficiente peer review? ¿Es que DOAJ comprueba prácticas editoriales o se limita revisar declaraciones de política editorial? Este suele ser realmente el problema que poseen muchos sistema de calificación de revistas en función de parámetros ligados a calidad editorial: solo pueden valorar declaraciones pero no realidades. Se dice que se hace algo ¿pero realmente se hace? y ¿cómo se hace? Difícil y costoso comprobarlo. También se ha visto salpicada la OASPA, asociación que reúne a los principales

Page 42: 2013 oct Debate sobre calidad de las revistas científicas · tuvieron una mayor tasa de aceptación, y el artículo dice: "Los resultados muestran ... electrónica y el open access.

42

editores comerciales del mundo con revistas OA (http://oaspa.org/membership/members/). Alguna de sus revistas se han visto afectadas y prometen una revisión de sus sistemas y controles. En cualquier caso, conviene resaltar que, como ya he señalado anteriormente los resultados solo pueden ser extrapolados a la muestra empleada, esto es a las 304 revistas implicadas. Por tanto, no se puede decir que las más de 10.000 revistas OA que circulan adopten las malas prácticas aquí denunciadas. Pero, dicho sea de paso, jamás se empleó una muestra tan amplia en estudios de este tipo. La sombra de la duda, que siempre cayó como espada de Damócles sobre las revistas OA, que debían demostrar que sus procesos editoriales eran homologables a los de las revistas tradicionales, se ha extendido de nuevo sobre ellas y el movimiento. Y ciertamente, moviéndome en un terreno de hipótesis, creo que la eficiencia del peer review, en general, ha sido de nuevo cuestionada con este trabajo. Estoy convencido de que si el experimento se hubiera extendido a las revistas tradicionales “de prestigio” algunas habrían caído en la trampa; seguramente en menor proporción, pero hubiera sido grave que ocurriera. No hay más que comprobar las noticias sobre retractaciones por manipulación o falseamiento de datos aparecidas en Retraction Watch (http://retractionwatch.wordpress.com/): en la lista de afectados están las grandes revistas (Nature, Science) y editoriales (Elsevier, Springer, Oxford University Press). Todavía recordamos el caso Hwang que salpicó a Science. Y a este respecto debo reafirmarme en lo que ya sostuve en 2006 respecto al PEER REVIEW como sistema de evaluación y detección del fraude: no existen medios infalibles que puedan impedir que el fraude se produzca, ni la publicación por si sola es un sello que garantice la fiabilidad y validez de una investigación, ni el sistema de evaluación por expertos empleado es capaz de detectarlo y neutralizarlo. Básicamente por dos razones. En primer lugar, porque el edificio científico se asienta sobre un pilar axiomático que es falseable: se basa en la buena voluntad de los científicos; la honestidad se presupone; es inconcebible que un científico premeditadamente esté dispuesto a mentir. Por consiguiente, si un científico quiere mentir mentirá. Y como no cabe en la mente de la comunidad científica que esto ocurra la guardia estará permanentemente bajada. En segundo lugar, porque el sistema de alerta que emplea la ciencia para contrastar la verosimilitud y veracidad de un descubrimiento se aplica en muy pocos casos. La replicación y contrastación de la investigación por otros científicos, que es la auténtica máquina de la verdad de la ciencia, es impracticable dado el volumen actual que ha adquirido la ciencia. Aunque supuesta y teóricamente las investigaciones pueden ser reproducidas, la sección metodológica de un trabajo ofrece los detalles que lo hacen factible, esto no se lleva a efecto más que con los grandes descubrimientos. Pero es que, además, la verificación de todos los resultados de investigación publicados es materialmente imposible: ¿Qué tiempo requeriría esta tarea? ¿Disponen de él los revisores que deben valorar los trabajos? ¿Poseen el mismo nivel de competencia, conocimientos, habilidades técnicas y el equipamiento necesario para hacerlo? ¿Están libres de intereses los propios revisores para que se les pueda confiar los trabajos de sus potenciales competidores? Evidentemente no. Pero es que si se pretendiera hacerlo la ciencia iría al colapso. Por consiguiente, se parte del principio de confianza y de la buena fe al que antes aludíamos: si los científicos

Page 43: 2013 oct Debate sobre calidad de las revistas científicas · tuvieron una mayor tasa de aceptación, y el artículo dice: "Los resultados muestran ... electrónica y el open access.

43

declaran haber hecho algo, se cree en ellos y se da por cierto. Debe quedar claro que el arbitraje científico no sólo no es capaz de detectar el fraude sino que ni siquiera puede garantizar la fiabilidad y validez de los resultados. Muchas son las experiencias que han evidenciado la verdad de esta afirmación (Darsee, Slutsky, Schön...), muchos los experimentos que han demostrado la inoperancia del sistema (Jurdant, 2003 ; Peters & Ceci, 1982 ; Epstein, 1990, Campanario, 1995, 2002) y muchas más las investigaciones que han puesto al descubierto los defectos del arbitraje científico que (Armstrong, 1997) Si el arbitraje científico es lento, costoso, despilfarrador del tiempo de la comunidad científica, subjetivo, propenso al sesgo, sin capacidad para evitar los abusos de editores o revisores, no puede garantizar la fiabilidad y validez de los trabajos, es incapaz de detectar la fabricación, falsificación, el plagio y el resto de deshonestidades científicas, ¿para qué sirve entonces? ¿por qué lo seguimos utilizando? Las únicas certezas que poseemos es que este sistema sirve para reducir la avalancha de información, para mejorar la redacción de los trabajos, para enseñar a los autores a presentar sus trabajos de acuerdo con los cánones del método científico y para seleccionar algunos trabajos buenos y rechazar muchos trabajos malos. Sólo podemos decir que cuanto más lo usamos menos nos gusta, pero cuando menos lo usamos más lo echamos en falta. Mayoritariamente se considera que, al igual que ocurre con la democracia, es el menos malo de los sistemas. Y, ya por último, creo que no puede entenderse este fenómeno del surgimiento y expansión de revistas depredadoras y del fraude subsiguiente que representan, como una manifestación más del gran problema de fondo que aqueja a la ciencia y la comunicación científica hoy día: la presión por publicar que tienen los científicos y las instituciones en que trabajan se está haciendo insoportable. A los científicos se les juzga por lo que publican. Los sistemas de evaluación del rendimiento de los científicos en todos los países, que han puesto en la publicación en “revistas internacionales de impacto” la vara que determina el ingreso, el desempeño (obtención de financiación) y el ascenso en la academia y la propia retribución. El éxito en sus carreras depende literalmente de ello. Al calor de esta necesidad han surgido estas revistas que ofrecen publicar en “international journals…” o “american journals…” a un mercado de miles de científicos en el mundo. Muchos pican el anzuelo: estamos ante una auténtica estafa. Los efectos son demoledores para los propios científicos, para el sistema editorial, para la comunicación científica y para salud de la ciencia. En definitiva, la publicación como problema y la impactitis como enfermedad: hace años que vengo hablando de ello, y más que se hará próximamente. De momento, Nature, ayer publicó en su último número varios trabajos que se ocupan de estos asuntos http://www.nature.com/nature/current_issue.html Emilio Delgado López-Cózar EC3: Evaluación de la Ciencia y de la Comunicación Científica Universidad de Granada ec3.ugr.es http://scholar.google.com/citations?hl=es&user=kyTHOh0AAAAJ

LUIS.RODRIGUEZ.YUNTA.11370 <[email protected]> 18 de octubre

Page 44: 2013 oct Debate sobre calidad de las revistas científicas · tuvieron una mayor tasa de aceptación, y el artículo dice: "Los resultados muestran ... electrónica y el open access.

44

de 2013 18:04

Responder a: "LUIS.RODRIGUEZ.YUNTA.11370" <[email protected]> Para: [email protected]

Un excelente análisis el de Emilio Delgado, sin duda merece la pena la lectura. Aunque no ha querido entrar al debate sobre los recursos de información por considerarlo un tema colateral, si lanza también un comentario relacionado con ello al hablar de DOAJ. Creo que si consideramos iwetel como lista profesional, debatir sobre como influyen las dudas sobre la fiabilidad de las evaluaciones y categorizaciones de revistas sobre la construcción de recursos (directorios, bases de datos y hemerotecas digitales) es un tema colateral para el artículo de Bohannon pero es un asunto central para los intereses de iwetel. Por ello, creo que es bueno que no se obvie esto en el debate de esta lista. El ejemplo de DOAJ me parece por tanto muy relevante para compararlo con lo que se ha dicho anteriormente sobre Latindex. Efectivamente DOAJ afirma que el requisito para estar en su directorio es aplicar algún sistema de control de calidad (por revisores o por el consejo editorial). Pero basta con afirmarlo en la web de la revista para entrar, hay por tanto también un problema de confianza ciega que es fácil de engañar. Es como si el Tour de Francia se limitase a pedir a los ciclistas que firmen una declaración de estar limpios. Cuando la competencia es extrema puede presumirse que una declaración no basta. Ahora bien, pedir a DOAJ o a Latindex que adopten criterios de fiscalización en profundidad creo que está fuera de lugar, y excede los objetivos de un directorio. Simplemente nunca podrán certificar la excelencia ni lo han pretendido. Si se trata de crear un listado de revistas de excelencia, además de certificar documentalmente el sistema de arbitraje, quizás también haya que excluir a las revistas que piden pago por publicar, al menos si el precio supera el gasto de la revista en evaluadores si lo hay. Luis Rodríguez Yunta CSIC Emilio Delgado López-Cózar <[email protected]> escribió:

Llego al debate cuando ya se ha apagado el eco del mismo, pero desvelos diversos me han impedido intervenir antes en tan enjundiosa controversia y con tan sugestivas y aquilatadas opiniones. Me centraré en el tema sobre el que discurre fundamentalmente el ap estudio de Bohannon y que Tomás nos transmitió con el provocador título de “Editoriales OA estafadoras y sin escrúpulos” y orillaré las derivadas del mismo (criterios, herramientas, sistemas de evaluación de las revistas científicas iberoamericanas, políticas editoriales y científicas), no por falta de criterio ni de ganas sino por ser operativo y no desviar la atención sobre lo más relevante de este estudio. Perdonad la extensión, pero ha salido así la cosa. Etc.

Isidro F. Aguillo <[email protected]> 18 de octubre de 2013

18:17Responder a: "Isidro F. Aguillo" <[email protected]> Para: [email protected]

Page 45: 2013 oct Debate sobre calidad de las revistas científicas · tuvieron una mayor tasa de aceptación, y el artículo dice: "Los resultados muestran ... electrónica y el open access.

45

Estimado Emilio: Agradezco que te unas al debate y espero que al abrir nuevas vías y suministrar más información algunos más de los escuchantes se animen a participar. Te voy a cambiar el orden: - Coincido contigo en que el modelo actual de "peer review" no es el más adecuado y ha demostrado repetidamente sus carencias. La "publicationitis" y la "impactitis" posiblemente tienen algo que ver, pero no creo que la solución sea cuestionar los procesos de evaluación en su conjunto. A mi modo de ver la solución pasa por la profesionalización del sistema, es decir pagar (y exigir) a los revisores. El dinero existe mientras seamos capaces de expulsar a los "stakeholders" parásitos que detraen recursos del sistema. Aquí hablo ecvidentemente de las editoriales, pero me uno a la sensata voz de Merlo Vega, que en la reunión de Rebiun de Lleida alertaba de la generosa contribución que hacemos a redes sociales (ponía el ejemplo de ResearchGate y Mendeley) para que estas exploten nuestra información con escaso retorno. - Discrepo en que el estudio de Bohannon sea un ataque al Open Access o es que realmente tenemos un problema con la definición. El modelo donde paga el autor NO debe ser considerado como tal y ese es el target casi único del estudio, cuyos resultados visto el diseño y ejecución de la muestra son enteramente previsibles. - Me alegra de que saques a colación a ese excelente producto documental que es DOAJ, una rigurosa, estricta, bien construída base de datos. Formalmente perfecta, pero como bien señalas incapaz de cumplir de forma adecuada sus misiones. En mis mensajes anteriores yo también he hablado de otros excelentes productos documentales. - Soluciones las hay, invertir más y mejor en los procesos de evaluación (Yunta y Maldonado hablaban de ser más exigentes con las agencias), aumentar la profesionalización en los procesos (por ejemplo, pagando), pero en mi opinión hay que empezar en el origen, persiguiendo y castigando en la propia institución las prácticas abusivas, poco éticas o ilegales. En España en general (y en el CSIC en particular) se han dado casos con trascendencia mediática que han quedado en "agua de borrajas". Y no me refiero a atletas, cliclistas y otros tramposos asimismo exonerados en procesos poco claros. Vuestro turno, [El texto citado está oculto] [El texto citado está oculto]

Emilio Delgado López-Cózar <[email protected]> 18 de octubre de 2013

20:21Responder a: Emilio Delgado López-Cózar <[email protected]> Para: [email protected]

Hola Luis, muchas gracias por tu amable calificativo para con mi análisis. Cuando decía lo de orillar el tema era porque quería centrarme en lo que a mi entender es el nudo central del asunto. Bastante extenso salió ya el mensaje y no quería cansar a la audiencia con una perorata sobre un tema tan cercano para mí: llevo 25 años dedicado a la evaluación de revistas (he escrito manuales sobre el tema, propuestas de criterios de evaluación y, encima, he participado en la gestación del

Page 46: 2013 oct Debate sobre calidad de las revistas científicas · tuvieron una mayor tasa de aceptación, y el artículo dice: "Los resultados muestran ... electrónica y el open access.

46

algunas de las herramientas de las que salieron en el debate). Tildarlo de colateral no implica menospreciarlo. Justamente, minutos después de lanzar mi mensaje, DOAJ publicaba una nota contestando con mayor detalle el trabajo de Bohannon. Para empezar venía a corroborar mi posición sobre cual es el asunto central del debate Bohannon's article did highlight three important issues: There are predatory publishers. There are problems with peer review. Some of the exposed journals are indexed in DOAJ. Me alegra la coincidencia, pero lo relevante es que viene a justificar sus políticas de indización de revistas. Está claro que estos controles no han funcionado con las revistas piratas. Evidentemente, el problema que tienen todos estos sistemas es irresoluble: miden la calidad editorial de una revista sobre las políticas editoriales declaradas y no sobre las practicadas. Este es el problema y es por eso por lo que la fiabilidad y validez de estas evaluaciones se pone al final en duda (remito a alguna presentación donde he puesto blanco sobre negro mi opinión al respecto http://digibug.ugr.es/bitstream/10481/22576/1/Evaluar_revistas_letras.pdf). En cualquier caso, el mejor efecto del trabajo de Bohannon es que DOAJ" have removed 114 journals during the last week". Un abrazo, Emilio El 2013-10-18 18:04, LUIS.RODRIGUEZ.YUNTA.11370 escribió: [El texto citado está oculto]

Emilio Delgado López-Cózar <[email protected]> 18 de octubre de 2013

20:44Responder a: Emilio Delgado López-Cózar <[email protected]> Para: [email protected]

Estimado Isidro, agradezco que contestes mi mensaje e intento glosarlo El 2013-10-18 18:17, Isidro F. Aguillo escribió: Estimado Emilio: Agradezco que te unas al debate y espero que al abrir nuevas vías y suministrar más información algunos más de los escuchantes se animen a participar. Te voy a cambiar el orden: - Coincido contigo en que el modelo actual de "peer review" no es el más adecuado y ha demostrado repetidamente sus carencias. La "publicationitis" y la "impactitis" posiblemente tienen algo que ver, pero no creo que la solución sea cuestionar los procesos de evaluación en su conjunto. A mi modo de ver la solución pasa por la profesionalización del sistema, es decir pagar (y exigir) a los

Page 47: 2013 oct Debate sobre calidad de las revistas científicas · tuvieron una mayor tasa de aceptación, y el artículo dice: "Los resultados muestran ... electrónica y el open access.

47

revisores. El dinero existe mientras seamos capaces de expulsar a los "stakeholders" parásitos que detraen recursos del sistema. Aquí hablo ecvidentemente de las editoriales, pero me uno a la sensata voz de Merlo Vega, que en la reunión de Rebiun de Lleida alertaba de la generosa contribución que hacemos a redes sociales (ponía el ejemplo de ResearchGate y Mendeley) para que estas exploten nuestra información con escaso retorno. No es mi idea el intentar cuestionar más de lo debido el peer review. Simplemente trato de recordar que es un tema que viene de antiguo y que "las únicas certezas que poseemos es que este sistema sirve para reducir la avalancha de información, para mejorar la redacción de los trabajos, para enseñar a los autores a presentar sus trabajos de acuerdo con los cánones del método científico y para seleccionar algunos trabajos buenos y rechazar muchos trabajos malos. Sólo podemos decir que cuanto más lo usamos menos nos gusta, pero cuando menos lo usamos más lo echamos en falta. Mayoritariamente se considera que, al igual que ocurre con la democracia, es el menos malo de los sistemas" Profesionalizar el sistema: esta es una propuesta rompedora. Hasta ahora, aunque hay excepciones (incluso nuestro EPI pagó a los revisores durante un tiempo) el sistema de arbitraje se basa en el trabajo "desinteresado" de autores, revisores y.... algunos editores (un viejo aforismo: hoy por tí mañana por mí). No me atrevo a hacer predicciones sobre la mejora y eficiencia del proceso con la profesionalización (seguramente mejore los filtros en el sentido de que los revisores afinarían mucho más) pero dado que el edificio científico se asienta en la buena voluntad de los científicos; la honestidad se presupone; es inconcebible que un científico premeditadamente esté dispuesto a mentir. Por consiguiente, si un científico quiere mentir mentirá. Y como no cabe en la mente de la comunidad científica que esto ocurra la guardia estará permanentemente bajada. En segundo lugar, y esto es lo más trascendente porque la replicación y contrastación de la investigación por otros científicos, que es la auténtica máquina de la verdad de la ciencia, es impracticable dado el volumen actual que ha adquirido la ciencia. Aunque supuesta y teóricamente las investigaciones pueden ser reproducidas, la sección metodológica de un trabajo ofrece los detalles que lo hacen factible, esto no se lleva a efecto más que con los grandes descubrimientos. Pero es que, además, la verificación de todos los resultados de investigación publicados es materialmente imposible: ¿Qué tiempo requeriría esta tarea? ¿Disponen de él los revisores que deben valorar los trabajos? ¿Poseen el mismo nivel de competencia, conocimientos, habilidades técnicas y el equipamiento necesario para hacerlo. Sobre el uso que hacen de nuestras contribuciones todas las empresas que se dedican a la comunicación científica (empezando por las propias editoriales como por buscadores (Google) o redes sociales, que construyen productos con la información circulante sin ofrecer retornos, totalmente de acuerdo. Las bibliotecas con organismos como SPARC, a nivel internacional debieran presionar a los gobiernos para que exijan algunos retornos económicos a los productores de la información. - Discrepo en que el estudio de Bohannon sea un ataque al Open Access o es que realmente tenemos un problema con la definición. El modelo donde paga el autor NO debe ser considerado como tal y ese es el target casi único del estudio, cuyos resultados visto el diseño y ejecución de la muestra son enteramente previsibles.

Page 48: 2013 oct Debate sobre calidad de las revistas científicas · tuvieron una mayor tasa de aceptación, y el artículo dice: "Los resultados muestran ... electrónica y el open access.

48

Lo que digo es que el OPEN ACCESS se ve afectado porque los titulares en todos los medios de comunicación han trasladado este mensaje letal. Es exactamente lo que ocurre con el ranking Shangai (sabemos de sus deficiencias metodológicas pero se ha convertido en el estandar de facto que determina la gloria universitaria. No nos queda otra que no callarnos, pero la batalla la tenemos casi perdida...). En el propio comunicado que publicaba DOAJ esta mañana (http://www.doaj.org/doaj?func=news&nId=317&uiLanguage=en) reconocían este hecho: "unfortunately, within 35 minutes of embargo being lifted, Bohannon's article had already done its damage. DOAJ was monitoring tweets and saw phrases such as: "shoddy standards", "little or no scrutiny at OA journals", "we knew peer-review was broken, and here's proof". The second phrase, along with the 'Wild West' term that Science included in its press release, reoccurred in tweets again and again." - Me alegra de que saques a colación a ese excelente producto documental que es DOAJ, una rigurosa, estricta, bien construída base de datos. Formalmente perfecta, pero como bien señalas incapaz de cumplir de forma adecuada sus misiones. En mis mensajes anteriores yo también he hablado de otros excelentes productos documentales. Muy buena voluntad, pero estos productos se basa en lo que la gente dice... Principio de buena confianza... Pero no toda la gente es buena...

- Soluciones las hay, invertir más y mejor en los procesos de evaluación (Yunta y Maldonado hablaban de ser más exigentes con las agencias), aumentar la profesionalización en los procesos (por ejemplo, pagando), pero en mi opinión hay que empezar en el origen, persiguiendo y castigando en la propia institución las prácticas abusivas, poco éticas o ilegales. En España en general (y en el CSIC en particular) se han dado casos con trascendencia mediática que han quedado en "agua de borrajas". Y no me refiero a atletas, cliclistas y otros tramposos asimismo exonerados en procesos poco claros. OK a todo, pero el monstruo que devora a la ciencia sigue ahí extendiendo sus tentáculos: el ansia de publicar para vivir, sobrevivir o triunfar en un mundo donde evaluamos todo a todas horas... Soy escéptico en el cambio si no se tocan las políticas de evaluación científica, que vienen determinadas por algo que tiene que ver con nuestro sistema de vida. Un abrazo, emilio [El texto citado está oculto]

Tomas Saorin (Facultad de Comunicación y Documentación. Universidad de Murcia) <[email protected]>

19 de octubre de 2013 11:14

Para: Indicadores en Ciencia y Tecnología <[email protected]>

Por dispersar un poco este tema ¿No es una lástima que esta discusión no quede plasmada en un documento con visibilidad? Mirad, este es otro de los fallos de la publicación científica en algunos campos, la escasez de espacio en las cabeceras importantes para acoger este debate sobre el "campo científico", crudo, personal, ocasiones, pero ilustrativo. Cómo sólo importa la producción evaluable, se

Page 49: 2013 oct Debate sobre calidad de las revistas científicas · tuvieron una mayor tasa de aceptación, y el artículo dice: "Los resultados muestran ... electrónica y el open access.

49

descuida este otro género. ¿Alguien tiene inconveniente en que genere un PDF con este debate y lo suba al repositorio de la universidad? Una vez allí puede ser citado, comentado .... and so on. Saludos ___ Tomás Saorín | Universidad de Murcia | [email protected] Profesor asociado, Facultad de Comunicación y Documentación

Tomàs Baiget <[email protected]> 19 de octubre de 2013 11:28Responder a: Indicadores en Ciencia y Tecnología <[email protected]> Para: [email protected]

¡Muy bueno, Tomás con acento despegando! Yo me estaba planteando hacer una versión para el prímo Anuario ThinkEPI. Así, que si te/os parece bien, aunque cuelgues el pdf en tu Uni, podríamos publicarlo también en ThinkEPI. El otro Tomàs, con acento aterrizando. Tomàs Baiget http://elprofesionaldelainformacion.com [El texto citado está oculto]

LUIS.RODRIGUEZ.YUNTA.11370 <[email protected]>19 de octubre de 2013

11:49Para: Tomàs Baiget <[email protected]>, [email protected]

Por mi parte no tengo inconveniente en ambas "reutilizaciones" Luis Rodríguez Yunta Tomàs Baiget <[email protected]> escribió: [El texto citado está oculto]

Pablo de Castro <[email protected]> 21 de octubre de 2013

10:15Responder a: Indicadores en Ciencia y Tecnología <[email protected]> Para: [email protected]

Buenos dias Tomas, Ningun problema por mi parte en que se deposite el archivo de la discusion en un repositorio de acceso abierto -- convendria quiza eso si adjuntarle un abstract en el que se describa lo mas aproximadamente posible la amplia variedad de tematicas abordadas.

Page 50: 2013 oct Debate sobre calidad de las revistas científicas · tuvieron una mayor tasa de aceptación, y el artículo dice: "Los resultados muestran ... electrónica y el open access.

50

En relacion con la interesante propuesta de 'profesionalizar' la revision por pares asignandole una remuneracion economica (cuyo origen por otra parte no se menciona, pero se supone esta implicitamente del lado de los editores), comentar tan solo que no parecen los tiempos que corren los mas favorables para una propuesta de esta indole, cuando la divisa imperante pasa mas bien por el consabido "mas por menos". Un modo de esquivar esta dificultad podria ser reformular la propuesta en el sentido de ir dando los pasos apropiados para acercarse a un modelo en el que la revision por pares devenga una tarea expresamente reconocida por la comunidad academica, y esto mas en el sentido de la evaluacion de la actividad cientifica que de la remuneracion per se (que si bien podria a priori resolver algunos problemas, conlleva asimismo otra serie de consideraciones potencialmente conflictivas). El primer paso para acercarse al reconocimiento de la actividad de revision de manuscritos podria estar de hecho al alcance de la mano con la progresiva implantacion de ORCID, en cuya coleccion de areas de actividad academica la revision por pares esta expresamente reconocida. Me alegro por ultimo de que la discusion resultante del mensaje inicial de Tomàs haya resultado tan rica -- y confio que mi mensaje anterior de tono un tnto tajante haya contribuido a animar el foro sin incomodar en exceso a las personas aludidas en el mismo. Pido en todo caso publicas disculpas si hubiera sido asi. Un saludo, Pablo ----- Pablo de Castro euroCRIS Best Practice/DRIS Task Group Leader ---------------------------------------------------- Archivos de INCYT: http://listserv.rediris.es/archives/incyt.html ------------------------------------------------------

Isidro F. Aguillo <[email protected]> 21 de octubre de 2013

20:04Responder a: Indicadores en Ciencia y Tecnología <[email protected]> Para: [email protected]

Saludos desde Scielo-15, La propuesta de Pablo de promocionar profesionalmente a los revisores y su trabajo es interesante, mas aun si se puede combinar con una mayor trasparencia de los procesos, quizas haciendolos públicos y abiertos. Respecto a ORCID solo puedo expresar cierta preocupación. Extraigo de su página la siguiente información:

Page 51: 2013 oct Debate sobre calidad de las revistas científicas · tuvieron una mayor tasa de aceptación, y el artículo dice: "Los resultados muestran ... electrónica y el open access.

51

"If you deposit data in the ORCID registry, you still own the data, but you grant a license to ORCID and its users to use the data. Specifically, by depositing any data (including links, but not the linked content) in the ORCID Registry, you grant ORCID and its users a perpetual, irrevocable, worldwide, royalty-free license to sublicense, reproduce, store, modify, transmit, distribute, publicly perform and publicly display such data, subject to the Privacy Settings you, your Proxy or a Member Creator select. This license continues even after you stop using the Registry. You can remove information (other than the ORCID ID, which is always public, and your name and email address, which you can make private); however, if you previously made data publicly available through the Registry, there is no way to stop the public from continuing to use that data." Vuestro turno, Pablo de Castro <[email protected]> escribió: [El texto citado está oculto]

Consol Garcia/BUPC/UPC <[email protected]> 22 de octubre de

2013 16:28Responder a: Indicadores en Ciencia y Tecnología <[email protected]> Para: [email protected]

Hola, Estoy siguiendo de cerca esta discusión apasionante sobre las editoriales OA estafadoras y sin escrúpulos, (sólo OA?) y a propósito del mensaje de Isidro quería comentar: Si accedes a tener un identificador ORCID, el identificador siempre estará ahí, a pesar de que como se dice en la política de privacidad http://orcid.org/privacy-policy: You may choose to disable your ORCID Record in the Registry by marking all information as Private (other than the ORCID identifier which is always Public) or by deleting information in your record. In the event that an ORCID Record is disabled, we will maintain as Private your name and email address, so as not to assign the same identifier to another person and to allow you to re-claim your identifier in the future. Una vez la información está "ahí fuera" el uso que terceros hagan de ella no depende de ORCID, la información marcada como pública es accesible bajo CC0 waiver y el usuario lo sabe. ORCID no vende la información, Los usuarios pueden cambiar los privacy settings en cualquier momento y ORCID no tiene control sobre la información que previamente se ha marcado como pública. ORCID no guarda el fulltext, sólo links por consiguiente dependiendo de la subscripción de cada uno se podrá o no acceder al fulltext. Sobre el acceso abierto, dejadme que os diga que un profesor me ha llamado para averiguar cómo hacerse con 2200€ por publicar su artículo en Science and Engineering Ethics (Springer Open Choice), justamente una revista a la que ya

Page 52: 2013 oct Debate sobre calidad de las revistas científicas · tuvieron una mayor tasa de aceptación, y el artículo dice: "Los resultados muestran ... electrónica y el open access.

52

estamos suscritos vía consorcio, y como no estamos en Harvard ni dependemos de RCUK me ha dicho que se ve obligado a firmar el Copyright Transfer. Bueno, al menos Springer presume de ser green en Sherpa/Romeo, nosotros presumimos de repositorio y la revista de cuestión de estar en el Q1 de JCR. Un saludo, Consol Garcia https://orcid.org/0000-0001-8085-0088 Responsable Unitat de Recerca Biblioteca del Campus del Baix Llobregat UPC-BCN Tech CBL Ed. D7 Esteve Terradas 10 08860 Castelldefels Tel. 93 552 3563

Isidro F. Aguillo <[email protected]> 22 de octubre de 2013

22:51Responder a: Indicadores en Ciencia y Tecnología <[email protected]> Para: [email protected]

¿Como? Consol es bibliotecaria el profesor se suopone que ha realizado una investigación, posiblemente con cargo a un proyecto, y con previsibles repercusiones positivas en sus emolumentos via productividad entonces... ¿¿A cuento de qué el "profesor llama a Consol para averiguar cómo hacerse con 2200€ por publicar su artículo"?? Vuestro turno, Consol Garcia/BUPC/UPC <[email protected]> escribió:

[El texto citado está oculto] [El texto citado está oculto] [El texto citado está oculto]

Pablo de Castro <[email protected]> 23 de octubre de 2013

11:40Responder a: Indicadores en Ciencia y Tecnología <[email protected]> Para: [email protected]

Page 53: 2013 oct Debate sobre calidad de las revistas científicas · tuvieron una mayor tasa de aceptación, y el artículo dice: "Los resultados muestran ... electrónica y el open access.

53

Isidro, Entiendo que en el contexto de la discusion, "hacerse con" 2200€ significa averiguar si la institucion (la UPC) tiene operativa alguna clase de politica de apoyo a la publicacion de trabajos en revistas de acceso abierto de cuya dotacion presupuestaria pueda obtener financiacion para publicar su articulo con SpringerOpen. Estas politicas institucionales de apoyo economico a la publicacion en abierto se gestionan tradicionalmente desde Biblioteca, de modo que no es ninguna sorpresa que el profesor contacte con este servicio. En UK, donde como es sabido existe una politica expresa del gobierno y de los Research Councils para financiar las cuotas de procesamiento de articulos (APCs) asociadas al modelo de publicacion de acceso abierto dorado escogido por RCUK como opcion por defecto, las bibliotecas de las research-intensive universities estan estos dias inmersas en una frenetica actividad de comunicacion con los autores que demandan informacion sobre los procedimientos a su alcance para cumplir con los requisitos de la politica de acceso abierto RCUK. Volviendo por otra parte al tema ORCID que nos ocupa, yo añadiria a la respuesta de Consol que, si bien una aproximacion purista al control de los datos podra siempre encontrar motivos para la reticencia en el modelo de ORCID, las ventajas en el ambito de la interoperabilidad y las radicales mejoras en la gestion de la informacion cientifica que ofrece la gradual implantacion de este estandar compensan de sobra eventuales consideraciones respecto al tratamiento de los datos por parte de una organizacion que ha declarado reiteradamente su caracter de sin animo de lucro y que ofrece ademas a los autores la opcion de asignar caracter privado a cuantos datos de su perfil consideren oportunos mantener fuera de la esfera publica (en la medida en que esto es posible en los tiempos que corren). Un saludo, Pablo