Estamos hablando de doctorado, así que hagámoslo de manera doctoral.
¿Cuál es la principal conferencia de aprendizaje automático? ICML, supongo.
Así que revisemos los documentos aceptados, y aquí están: ICML 2017 Documentos aceptados
Buscar NUS
- ¿Crees que los programas de BSc, MSc, EV2 y PhD de la Ecole Polytechnique tendrán un valor equivalente en Francia como los ingenieros admitidos previamente?
- ¿Qué doctorados siempre están en demanda?
- ¿Es posible presentar patentes al obtener un doctorado en CS en los Estados Unidos?
- Cómo cambiar el tema de mi doctorado
- ¿Podría obtener un trabajo de Machine Learning sin una maestría o doctorado dentro de 5 años?
Propagación de creencias tensoriales
Andrew Wrigley (Universidad Nacional Australiana) · Wee Lee (Universidad Nacional de Singapur) · Nan Ye (Universidad Tecnológica de Queensland)
Optimización de procesos gaussianos por lotes distribuidos
Erik A. Daxberger (Ludwig-Maximilians-Universität München) · Bryan Kian Hsiang Low (Universidad Nacional de Singapur)
Ahora busquemos ETH Zurich
Semillas distribuidas y demostrablemente buenas para k-medias en rondas constantes
Olivier Bachem (ETH Zúrich) · Mario Lucic (ETH Zúrich) · Andreas Krause (ETH Zúrich)
Garantías para la maximización codiciosa de funciones no submodulares con aplicaciones
Yatao Bian (ETH Zúrich) · Joachim Buhmann () · Andreas Krause (ETH Zúrich) · Sebastian Tschiatschek (ETH)
Límites uniformes de desviación para funciones de pérdida ilimitadas como k-medias
Olivier Bachem (ETH Zúrich) · Mario Lucic (ETH Zúrich) · Hamed Hassani (ETH Zúrich) · Andreas Krause (ETH Zúrich)
Regularización cúbica submuestreada para optimización no convexa
Jonas Kohler (ETH Zúrich) · Aurelien Lucchi (ETH)
Maximización submodular diferencialmente privada: resumen de datos disfrazado
Marko Mitrovic (Universidad de Yale) · Mark Bun (Universidad de Princeton) · Andreas Krause (ETH Zurich) · Amin Karbasi (Yale)
Redes de carreteras recurrentes
Julian Zilly (ETH Zurich) · Rupesh Srivastava (IDSIA (Universidad de Lugano)) · Jan Koutnik (NNAISSENSE) · Jürgen Schmidhuber (Laboratorio suizo de IA)
Modelos de entrenamiento con baja precisión de extremo a extremo: las latas, los cannots y un poco de aprendizaje profundo
Hantian Zhang (ETH Zúrich) · Jerry Li (MIT) · Kaan Kara (ETH Zúrich) · Dan Alistarh (ETH Zúrich) · Ji Liu () · Ce Zhang (ETH Zúrich)
Maximización submodular robusta por eliminación: resumen de datos con “el derecho a ser olvidado”
Baharan Mirzasoleiman (ETH Zúrich) · Amin Karbasi (Yale) · Andreas Krause (ETH Zúrich)
Entonces, desde NUS, tenemos a Wee Lee y Bryan Kian Hsiang Low. De ETH Zurich, tenemos a Andreas Krause (su grupo publica tantos artículos en ICML) y Ce Zhang.
Al menos al mirar ICML 2017 solo, parece que el grupo de aprendizaje automático en ETH Zurich es mucho más fuerte. Consulte otras conferencias principales de aprendizaje automático y llegue a la conclusión usted mismo.
Ah, por cierto, el pago para los estudiantes de doctorado en ETH Zurich es mucho mejor.