¿Qué distingue un artículo de investigación innovador de uno promedio en revistas académicas?

Los artículos innovadores hacen 1 de 3 cosas:

  1. Desarrollar un proceso para hacer algo muy fácil de hacer.
  2. Mostrar un comportamiento inesperado y útil.
  3. Enseñar un marco / campo completamente nuevo

Haz algo fácil de hacer:

Una gran instancia de esto es la síntesis de fase cuántica de la solución de Chris Murray. Este trabajo hizo mucho más fácil y más confiable hacer puntos cuánticos, un material importante. Curiosamente, ya había formas mucho más difíciles de hacer el material, no lo inventó. Simplemente lo hizo mucho más fácil.

Comportamientos inesperados:

Hace unos años, Henry Snaith mostró que la simple deposición plana de una perovskita podría hacer una célula solar con un 15% de eficiencia. Esto fue muy sorprendente ya que nadie hubiera esperado que células solares de tan alta eficiencia pudieran estar hechas de este material sin estructurar el material a nanoescala.

Nuevo campo / marco:

Varios de los primeros artículos sobre computación cuántica eran simplemente teorías de lo que la computadora haría / podría hacer. Esencialmente solo desarrollando el marco matemático décadas antes de que alguien se acercara a construir un sistema que pudiera hacerlo. Lo sorprendente es que era un marco completamente nuevo para pensar.

Cada uno de los anteriores básicamente creó un campo de investigación completamente nuevo o atrajo a más investigadores a ese campo.

Esto es lo que define un verdadero avance en la investigación.

Además de la calidad del documento en sí, es mucho más fácil ser considerado como innovador si el documento trata sobre un tema que está creciendo en importancia.

Permítanme elegir un ejemplo del tema de aprendizaje automático en informática. Por cierto, estoy escribiendo esta respuesta en mayo de 2017.

Existe este documento de “Asignación de Dirichlet latente” en 2003 por David Blei (que era estudiante de doctorado en Berkeley en ese momento, ahora profesor en Columbia), Andrew Ng (ahora profesor asociado en Stanford, también famoso por Coursera) y Michael Jordan (ahora profesor en Berkeley). Por ahora, todos ellos son nombres famosos en el aprendizaje automático.

Este artículo introdujo un modelo generativo llamado Asignación de Dirichlet Latente. El modelo generativo no es un concepto nuevo, ni siquiera en 2003. Sin embargo, esta asignación de Dirichlet latente resulta ser una técnica muy práctica.

¡Acabo de revisar Google Scholar, este artículo ha sido citado 18,744 veces espectaculares! Por curiosidad, verifiqué la cantidad de citas nuevas por año, y aquí está el resultado:

2003: 33

2004: 65

2005: 102

2006: 164

2007: 263

2008: 431

2009: 806

2010: 1050

2011: 1420

2012: 1690

2013: 2340

2014: 2700

2015: 3150

2016: 3420

2017: 959 → todavía es mayo de 2017 ahora

¡El número de nuevas citas por año sigue aumentando! Durante los últimos 15 años, el aprendizaje automático ha crecido en importancia. Se ha convertido en un tema muy candente durante los últimos 5 años. ¡El número de citas nuevas por año lo demuestra!

El documento de asignación de Dirichlet latente es ciertamente un papel muy fino. Pero es difícil pensar en un artículo muy bueno sobre, digamos, la teoría de autómatas (que muchos consideran un tema muerto) puede llegar a ser tan “innovadora” como este documento de Asignación de Dirichlet Latente.