Inteligencia artificial general

Estimaciones de cuánta potencia de procesamiento se necesita para emular un cerebro humano en varios niveles (de Ray Kurzweil, Anders Sandberg y Nick Bostrom), junto con la supercomputadora más rápida del TOP500 mapeada por año. Tenga en cuenta la escala logarítmica y la línea de tendencia exponencial, que supone que la capacidad computacional se duplica cada 1,1 años. Kurzweil cree que la carga mental será posible mediante simulación neuronal, mientras que el informe de Sandberg y Bostrom es menos seguro sobre dónde surge la conciencia.[1]

La inteligencia artificial general (IAG), también llamada inteligencia general artificial e inteligencia artificial fuerte,[2]​es un tipo hipotético de inteligencia artificial que iguala o excede la inteligencia humana promedio.[3]​ Si se hiciera realidad, una IAG sería capaz de realizar cualquier tarea intelectual que los seres humanos o los animales puedan llevar a cabo.[4][5]​ La IAG también se ha definido como un sistema autónomo que supera las capacidades humanas en la mayoría de las tareas económicamente valiosas.[6]​ La creación de la IAG es un objetivo primordial de algunas investigaciones sobre inteligencia artificial y de empresas como OpenAI[7]​, DeepMind y Anthropic. La IAG es un tema habitual en la ciencia ficción y en los estudios sobre el futuro.

Los plazos para el desarrollo de la inteligencia artificial siguen siendo objeto de debate entre investigadores y expertos. Algunos sostienen que podría realizarse en años o décadas; otros, que podría tardar un siglo o más; y una minoría cree que quizá nunca se consiga.[8]​Existe un debate sobre la definición exacta de IAG y sobre si los modelos de lenguaje grandes modernos, como GPT-4, son formas tempranas pero incompletas de IAG.[9]

Hay una amplia discusión sobre la posibilidad de que la IAG suponga una amenaza para la humanidad.[3]​ Por ejemplo, OpenAI la considera un riesgo existencial, mientras que otros creen que el desarrollo de la inteligencia artificial es demasiado remoto como para suponer un riesgo.[10][8][11]

Una encuesta realizada en 2020 identificó 72 proyectos activos de investigación y desarrollo en IAG distribuidos por 37 países.[12]

Problemas éticos y filosóficos

Una cuestión importante es que el surgimiento y la aplicación de este tipo de inteligencia artificial supondría nuevos problemas como las incógnitas sobre la posición que deberíamos tomar como seres humanos ante un ser que por su nueva inteligencia podría no considerarse solamente como una máquina más.

Otra incógnita es si esta podría alcanzar un grado tal donde llegue a tener conciencia, es decir una conciencia emergente a partir de las interacciones que se produzcan dentro de su sistema complejo que da origen a su inteligencia.

Diferencia entre IAG e IA

La intención básica del sector de la IAG consiste en implementar la inteligencia general (término acuñado por el psicólogo Charles Spearman) en un sistema computacional. Pei Wang y Ben Goertzel consideran que la diferencia clave entre los conceptos IAG e IA se halla en la “finalidad y alcance de la investigación.”[13]​ Esto quiere decir que la inteligencia artificial trata propiedades específicas en sus proyectos, como por ejemplo la capacidad de aprendizaje lingüístico o reconocimiento de imágenes, sin pretender integrarlas en un sistema más amplio. La IAG, en cambio, se refiere a emprendimientos cuya ambición cubre la entera complejidad de la inteligencia humana.

Es una fuente común de confusiones el hecho de que el significado original de IA se asemeja más a la actual IAG que a aquello que hoy en día se entiende, científicamente, como IA. Las habituales equivocaciones producidas entre ambos términos se deben a que, originariamente, IA designó el sueño de moda de la época (mediados del siglo XX): la conciencia artificial. En aquel momento parecía un campo de investigación prometedor pero, al devenir aparente la desproporción de las expectativas situadas sobre el sector —y la realidad de que, aunque fuera posible alcanzar la conciencia artificial, esta meta sería mucho más lejana de lo anticipado— la decadencia en el estudio de aquello que se conocía con el nombre de IA fue notable.

Posteriormente al fracaso de esa generación pionera de investigadores, aquellos que permanecieron en general trasladaron su trabajo a otras materias más asumibles (sobre todo aspectos particulares de la inteligencia), y no volvieron a acercarse al reto de la conciencia artificial. Así pues, la expresión IA cobró un nuevo significado y un extenso ámbito de investigación científica fue desprestigiado durante décadas.[14]

Diferencia entre IAG y conciencia artificial

Nada garantiza que el desarrollo de una IAG implique el surgimiento de la conciencia artificial o que se genere una conciencia emergente, pero esta tiende a ser considerada como la posibilidad más plausible. La razón porque se cree que la existencia de uno de estos conceptos probablemente lleve al otro deriva de como de intrínsecamente entrelazadas se encuentran la conciencia y la inteligencia general en los seres vivos. Peter Voss, profesional del campo de la IAG, justifica la coincidencia fundamental de las cualidades necesarias para el desarrollo tanto de un sistema de IAG como de una conciencia artificial afirmando que las personas poseen "autoconciencia conceptual" (conceptos abstractos del yo físico y mental), característica que resultaría imprescindible en la IAG, ya que esta tendría que "poder conceptualizar qué acciones ha tomado, [...] de qué acciones es [...] capaz, y cuáles son sus efectos más probables".[15]

Véase también

Referencias

  1. Sandberg y Boström, 2008.
  2. Teigens, Vasil; Skalfist, Peter; Mikelsten, Daniel. Inteligencia artificial: la cuarta revolución industrial. Cambridge Stanford Books. Consultado el 21 de febrero de 2024. 
  3. a b Morozov, Evgeny (30 de junio de 2023). «The True Threat of Artificial Intelligence». The New York Times. Archivado desde el original el 30 de junio de 2023. Consultado el 30 de junio de 2023. 
  4. Hodson, Hal (1 de marzo de 2019). «DeepMind and Google: the battle to control artificial intelligence». 1843. Archivado desde el original el 7 de julio de 2020. Consultado el 7 de julio de 2020. «AGI stands for Artificial General Intelligence, a hypothetical computer program...» 
  5. Shevlin, Henry; Vold, Karina; Crosby, Matthew; Halina, Marta (4 de octubre de 2019). «The limits of machine intelligence: Despite progress in machine intelligence, artificial general intelligence is still a major challenge». EMBO Reports (en inglés) 20 (10): e49177. ISSN 1469-221X. PMC 6776890. PMID 31531926. doi:10.15252/embr.201949177. 
  6. Sullivan, Mark (18 de octubre de 2023). «Why everyone seems to disagree on how to define Artificial General Intelligence». Fast Company. 
  7. «OpenAI Charter». openai.com (en inglés estadounidense). Consultado el 6 de abril de 2023. 
  8. a b «AI timelines: What do experts in artificial intelligence expect for the future?». Our World in Data. Consultado el 6 de abril de 2023. 
  9. «Microsoft Researchers Claim GPT-4 Is Showing "Sparks" of AGI». Futurism. Consultado el 13 de diciembre de 2023. 
  10. «Impressed by artificial intelligence? Experts say AGI is coming next, and it has 'existential' risks». ABC News (en inglés australiano). 23 de marzo de 2023. Consultado el 6 de abril de 2023. 
  11. «Artificial general intelligence: Are we close, and does it even make sense to try?». MIT Technology Review (en inglés). Consultado el 6 de abril de 2023. 
  12. Baum, Seth, A Survey of Artificial General Intelligence Projects for Ethics, Risk, and Policy, Global Catastrophic Risk Institute Working Paper 20, archivado desde el original el 14 de noviembre de 2021, consultado el 13 de enero de 2022 .
  13. Goertzel, Ben; Wang, Pei (2007). Advances in Artificial General Intelligence: Concepts, Architectures and Algorithms Proceedings of the AGI Workshop 2006 (en inglés). Amsterdam: IOS Press. 
  14. Russell, Stuart; Norvig, Peter (2010). Artificial Intelligence: A Modern Approach (en inglés). Upper Saddle River: Pearson. 
  15. Voss, Peter (2017). «Does an AGI Need to Be Conscious?». Medium. 

Bibliografía

  • UNESCO Science Report: the Race Against Time for Smarter Development.. Paris: UNESCO. 11 de junio de 2021. ISBN 978-92-3-100450-6. Archivado desde el original el 18 de junio de 2022. Consultado el 22 de septiembre de 2021. 
  • Aleksander, Igor (1996), Impossible Minds, World Scientific Publishing Company, ISBN 978-1-86094-036-1, (requiere registro) .
  • Azevedo FA, Carvalho LR, Grinberg LT, Farfel J (April 2009), «Equal numbers of neuronal and nonneuronal cells make the human brain an isometrically scaled-up primate brain», The Journal of Comparative Neurology 513 (5): 532-541, PMID 19226510, S2CID 5200449, doi:10.1002/cne.21974, archivado desde el original el 18 de febrero de 2021, consultado el 4 de septiembre de 2013 .
  • Berglas, Anthony (2008), Artificial Intelligence will Kill our Grandchildren, archivado desde el original el 23 de julio de 2014, consultado el 31 de agosto de 2012 .
  • Chalmers, David (1996), The Conscious Mind, Oxford University Press. .
  • Clocksin, William (August 2003), «Artificial intelligence and the future», Philosophical Transactions of the Royal Society A 361 (1809): 1721-1748, Bibcode:2003RSPTA.361.1721C, PMID 12952683, S2CID 31032007, doi:10.1098/rsta.2003.1232 ..
  • Darrach, Brad (20 de noviembre de 1970), «Meet Shakey, the First Electronic Person», Life Magazine: 58-68 ..
  • Drachman, D. (2005), «Do we have brain to spare?», Neurology 64 (12): 2004-2005, PMID 15985565, S2CID 38482114, doi:10.1212/01.WNL.0000166914.38327.BB ..
  • Feigenbaum, Edward A.; McCorduck, Pamela (1983), The Fifth Generation: Artificial Intelligence and Japan's Computer Challenge to the World, Michael Joseph, ISBN 978-0-7181-2401-4 .
  • Gelernter, David (2010), Dream-logic, the Internet and Artificial Thought, archivado desde el original el 26 de julio de 2010, consultado el 25 de julio de 2010 .
  • Goertzel, Ben; Pennachin, Cassio, eds. (2006), Artificial General Intelligence, Springer, ISBN 978-3-540-23733-4, archivado desde el original el 20 de marzo de 2013 .
  • Goertzel, Ben (Dec 2007), «Human-level artificial general intelligence and the possibility of a technological singularity: a reaction to Ray Kurzweil's The Singularity Is Near, and McDermott's critique of Kurzweil», Artificial Intelligence 171 (18, Special Review Issue): 1161-1173, doi:10.1016/j.artint.2007.10.011, archivado desde el original el 7 de enero de 2016, consultado el 1 de abril de 2009 ..
  • Gubrud, Mark (November 1997), «Nanotechnology and International Security», Fifth Foresight Conference on Molecular Nanotechnology, archivado desde el original el 29 de mayo de 2011, consultado el 7 de mayo de 2011 .
  • Halal, William E. «TechCast Article Series: The Automation of Thought». Archivado desde el original el 6 de junio de 2013. 
  • Holte, R. C.; Choueiry, B. Y. (2003), «Abstraction and reformulation in artificial intelligence», Philosophical Transactions of the Royal Society B 358 (1435): 1197-1204, PMC 1693218, PMID 12903653, doi:10.1098/rstb.2003.1317 ..
  • Howe, J. (November 1994), Artificial Intelligence at Edinburgh University: a Perspective, archivado desde el original el 17 de agosto de 2007, consultado el 30 de agosto de 2007 .
  • Johnson, Mark (1987), The body in the mind, Chicago, ISBN 978-0-226-40317-5 .
  • Kurzweil, Ray (2005), The Singularity is Near, Viking Press .
  • Lighthill, Professor Sir James (1973), «Artificial Intelligence: A General Survey», Artificial Intelligence: a paper symposium, Science Research Council .
  • Luger, George; Stubblefield, William (2004), Artificial Intelligence: Structures and Strategies for Complex Problem Solving (5th edición), The Benjamin/Cummings Publishing Company, Inc., p. 720, ISBN 978-0-8053-4780-7 .
  • McCarthy, John (Oct 2007), «From here to human-level AI», Artificial Intelligence 171 (18): 1174-1182, doi:10.1016/j.artint.2007.10.009 ..
  • Moravec, Hans (1976), The Role of Raw Power in Intelligence, archivado desde el original el 3 de marzo de 2016, consultado el 29 de septiembre de 2007 .
  • Moravec, Hans (1988), Mind Children, Harvard University Press .
  • Moravec, Hans (1998), «When will computer hardware match the human brain?», Journal of Evolution and Technology 1, archivado desde el original el 15 de junio de 2006, consultado el 23 de junio de 2006 .
  • Nagel (1974), «What Is it Like to Be a Bat», Philosophical Review 83 (4): 435-50, JSTOR 2183914, doi:10.2307/2183914, archivado desde el original el 16 de octubre de 2011, consultado el 7 de noviembre de 2009 ..
  • Newell, Allen; Simon, H. A. (1963), «GPS: A Program that Simulates Human Thought», en Feigenbaum, E. A.; Feldman, J., eds., Computers and Thought, New York: McGraw-Hill .
  • Newell, Allen; Simon, H. A. (1976). «Computer Science as Empirical Inquiry: Symbols and Search». Communications of the ACM 19 (3): 113-126. doi:10.1145/360018.360022. 
  • Nilsson, Nils (1998), Artificial Intelligence: A New Synthesis, Morgan Kaufmann Publishers, ISBN 978-1-55860-467-4 .
  • NRC (1999), «Developments in Artificial Intelligence», Funding a Revolution: Government Support for Computing Research, National Academy Press, archivado desde el original|urlarchivo= requiere |url= (ayuda) el 12 de enero de 2008, consultado el 29 de septiembre de 2007 .
  • Omohundro, Steve (2008), The Nature of Self-Improving Artificial Intelligence, presented and distributed at the 2007 Singularity Summit, San Francisco, California .
  • Poole, David; Mackworth, Alan; Goebel, Randy (1998), Computational Intelligence: A Logical Approach, New York: Oxford University Press, archivado desde el original el 25 de julio de 2009, consultado el 6 de diciembre de 2007 .
  • Sandberg, Anders; Boström, Nick (2008), Whole Brain Emulation: A Roadmap, Technical Report #2008‐3, Future of Humanity Institute, Oxford University, archivado desde el original el 25 de marzo de 2020, consultado el 5 de abril de 2009 .
  • Searle, John (1980), «Minds, Brains and Programs», Behavioral and Brain Sciences 3 (3): 417-457, S2CID 55303721, doi:10.1017/S0140525X00005756, archivado desde el original el 17 de marzo de 2019, consultado el 3 de septiembre de 2020 .
  • Simon, H. A. (1965), The Shape of Automation for Men and Management, New York: Harper & Row .
  • Sutherland, J. G. (1990), «Holographic Model of Memory, Learning, and Expression», International Journal of Neural Systems, 1–3: 256-267 ..
  • de Vega, Manuel; Glenberg, Arthur; Graesser, Arthur, eds. (2008), Symbols and Embodiment: Debates on meaning and cognition, Oxford University Press, ISBN 978-0-19-921727-4 ..
  • Wang, Pei; Goertzel, Ben (2007). «Introduction: Aspects of Artificial General Intelligence». Advances in Artificial General Intelligence: Concepts, Architectures and Algorithms: Proceedings of the AGI Workshop 2006. IOS Press. pp. 1-16. ISBN 978-1-58603-758-1. Archivado desde el original|urlarchivo= requiere |url= (ayuda) el 18 de febrero de 2021. Consultado el 13 de diciembre de 2020. 
  • Williams, R. W.; Herrup, K. (1988), «The control of neuron number», Annual Review of Neuroscience 11: 423-453, PMID 3284447, doi:10.1146/annurev.ne.11.030188.002231 ..
  • Yudkowsky, Eliezer (2006), «Artificial General Intelligence», Annual Review of Psychology (Springer) 49: 585-612, ISBN 978-3-540-23733-4, PMID 9496632, doi:10.1146/annurev.psych.49.1.585, archivado desde el original el 11 de abril de 2009 ..
  • Yudkowsky, Eliezer (2008), «Artificial Intelligence as a Positive and Negative Factor in Global Risk», Global Catastrophic Risks, Bibcode:2008gcr..book..303Y, ISBN 9780198570509, doi:10.1093/oso/9780198570509.003.0021 ..
  • Zucker, Jean-Daniel (July 2003), «A grounded theory of abstraction in artificial intelligence», Philosophical Transactions of the Royal Society B 358 (1435): 1293-1309, PMC 1693211, PMID 12903672, doi:10.1098/rstb.2003.1308 ..

Enlaces externos

  • AGI o IA Fuerte, la inteligencia artificial más avanzada de todas.
Control de autoridades
  • Proyectos Wikimedia
  • Wd Datos: Q2264109
  • Diccionarios y enciclopedias
  • Britannica: url
  • Wd Datos: Q2264109