АКТУАЛІЗАЦІЯ ФІЛОСОФСЬКИХ ЗАСАД ІНФОРМАЦІЙНОЇ СВІДОМОСТІ ЯК ВИКЛИК СУЧАСНОСТІ
DOI:
https://doi.org/10.32782/hst-2024-18-95-03Ключові слова:
інформаційна свідомість, інформаційна культура, штучний інтелект, інформаційний процес, інформаційно-суспільні відносиниАнотація
Зростання масштабів інформаційних процесів надало можливість здійснення революційних змін у суспільному житті та разом з цим актуалізувало питання вироблення світоглядних та інституційних засад застосування систем штучного інтелекту. Аналіз технократичного та трансгуманістичного підходів викриває їх оптимістичне, але водночас позбавлене критичного осмислення бачення застосування штучного інтелекту в суспільних процесах. Протилежні ідеї тотального контролю та втрати індивідуалізації і творчого начала виражають застереження щодо нежиттєздатних систем соціального управління, в яких людина втрачає власну суб’єктність. Мета статті полягає у визначенні шляхів реалізації гуманістичного потенціалу філософії у відповідь на загрози інформаційного відчуження та використання інформаційних технологій з метою знищення суб’єктності особистості. В основі відновлення свободи людини та подолання інформаційного відчуження лежать творчий підхід, критичне осмислення, здатність ідентифікувати та співвідносити реальне та нереальне. Враховуючи специфіку роботи систем штучного інтелекту, питання зрівняння їх та людиною, якщо і може бути реалізованим, то у віддаленій перспективі. Системи штучного інтелекту не здатні виступати еквівалентом особистості, хоча і виступають потужним інструментом автоматизації праці та зростання економічного сектору. Серед поточних загроз можна виділити втрату горизонтальних та вертикальних соціальних зв’язків, редукцію мисленнєвих процесів, зменшення здатності людини до самостійного прийняття рішень.
Посилання
An interview with Gaspard Koenig. The Economist, 01.10.2020. URL: https://www.economist.com/open-future/2020/01/10/a-cry-for-freedom-in-the-algorithmic-age Asimov I. Foundation and Earth. New York: Bantam Books, 1986. 499 p.
Asimov I. The Bicentennial Man. London: Gollancz, 2000. 224 p.
Bostrom N. Superintelligence. Paths, Dangers, Strategies. Oxford: Oxford University Press, 2014. 328 p.
Droit, Roger-Pol. Philosophy and democracy in the world. A UNESCO survey. Foreword by Federico Mayor / translation by Catherine Cullen. Paris: UNESCO Publishing, 1995. 193 p.
Harari Y. N. AI and the future of humanity. Yuval Noah Harari at the Frontiers Forum. URL: https://www.youtube.com/watch?v=LWiM-LuRe6w
Харарі Ю.Н. Homo Deus. За лаштунками майбутнього / пер. з англ. О. Дем’янчука; 2-ге вид. Київ : Форс Україна, 2019. 512 с.
Huberman J. Transhumanism: From Ancestors to Avatars. Cambridge University Press, 2020. 292 p.
Human enhancement / edited by Julian Savulescu and Nick Bostrom. Oxford: Oxford University Press, 2009. 423 p.
Kai-Fu Lee AI Superpowers: China, Silicon Valley, and the New World Order. Boston, New York : Houghton Mifflin Harcourt, 2018. 254 p.
Kai-Fu Lee, Chen Qiufan. AI 2041: Ten Visions for Our Future. New York : Currency, 2021. 426 p.
Koenig G. La fin de l’individu: voyage d’un philosophe au pays de l’intelligence artificielle. Éditions de l’Observatoire, 2019. 398 p.
Lilley S. Transhumanism and Society. The Social Debate over Human Enhancement. Springer-Dordrecht-Heidelberg-New-York-London: Springer Netherlands, 2013. 91 p.
Pasquale F. New laws of robotics : defending human expertise in the age of AI / Frank Pasquale. Cambridge, Massachusetts: The Belknap Press of Harvard University Press, 2020. 330 p.
Pause Giant AI Experiments: An Open Letter. Future of life Institute. URL: https://futureoflife.org/open-letter/pause-giant-ai-experiments/
Позов The New York Times проти OpenAI відображає серйозні проблеми AI сектору. Інтернет свобода, 5 січня 2024. URL: https://netfreedom.org.ua/article/pozov-new-york-times-proti-openai-vidobrazhaye-serjozni-problemi-ai-sektoru
Searle J. Minds, Brains and Programs. The Behavioral and Brain Sciences. 1980. Is. 3. P. 417–457.
The Bletchley Declaration by Countries Attending the AI Safety Summit, 1–2 November 2023. Policy paper published 1 November 2023. URL: /https://www.gov.uk/government/publications/ai-safety-summit-2023-the-bletchley-declaration/the-bletchley-declaration-by-countries-attending-the-ai-safety-summit-1-2-november-2023
##submission.downloads##
Опубліковано
Номер
Розділ
Ліцензія
Ця робота ліцензується відповідно до Creative Commons Attribution 4.0 International License.
Подаючи текст статті до редакції, автор погоджується з тим, що авторські права на статтю переходять до видавця, при умові, якщо стаття приймається до публікації. Авторські права включають ексклюзивні права на копіювання, розповсюдження і переклад статті.
Автор зобов’язаний:
- нести відповідальність за достовірність представленої інформації та оригінальність поданих матеріалів своєї роботи до друку;
- зберігати за собою всі авторські права і одночасно надавати збірнику наукових праць право першої публікації, що дозволяє розповсюджувати даний матеріал з підтвердженням авторства і первинності публікації у даному збірнику;
- відмова в публікації не обов’язково супроводжується роз’ясненням причини і не може вважатися негативним висновком відносно наукової і практичної цінності роботи.
Автори зберігають за собою авторські права на роботу і представляють збірнику наукових праць право першої публікації роботи, що дозволяє іншим розповсюджувати дану роботу з обов’язковим збереженням посилань на авторів оригінальної праці і оригінальну публікацію у даному збірнику.
Автори зберігають за собою право заключати окремі контрактні домовленості, що стосуються не-ексклюзивного розповсюдження версії роботи в опублікованому вигляді (наприклад, розміщення її в книгосховищі академії, публікацію в монографії), з посиланням на оригінальну публікацію в збірнику наукових праць.
Автори мають право розміщати їх роботу в мережі Інтернет (наприклад, в книгосховищі академії чи на персональному сайті) до і під часу розгляду її в даному збірнику наукових праць, так як це може привести до продуктивного обговорення її даним збірником і великої кількості посилань на дану роботу