Lagi

Hanya mendapatkan poin saat mengimpor dari OpenStreetMap ke PostgreSQL?

Hanya mendapatkan poin saat mengimpor dari OpenStreetMap ke PostgreSQL?


Ini adalah pertama kalinya saya bekerja dengan data OpenStreetMap.

Saya mencoba mengimpor beberapa data dari OpenStreetMap ke PostgreSQL. Saya telah mengunduh data menggunakan kueri berikut:

wget 'http://overpass-api.de/api/interpreter?data=node(52.06.5.04,52.08.5.06);out;' -O utrecht2.osm

Kemudian, saya telah mengimpor file yang dihasilkan ke PostgreSQL menggunakan osm2pqsql:

osm2pgsql -c -d utrecht -C 1000 --flat-nodes /home/me/Documents/01_perso/28_routing --hstore -S default.style utrecht2.osm

Semuanya tampak berjalan tanpa kesalahan (setidaknya saya bisa melihat).

Saya menggunakan file default.style yang dapat ditemukan di sini untuk impor.

Akhirnya, saya melihat data yang telah diimpor ke tabel Postgresql saya. Yang membuatku kesal adalah itu hanya tabel planet_osm_point yang berisi informasi. Semua meja lainnya kosong.

Saat melihat area menggunakan situs web OSM, jelas bagi saya bahwa harus ada lebih banyak informasi yang tersedia, dalam hal poligon, jalan, dll.

Saya telah mencoba mengurangi area pencarian saya beberapa kali, bertanya-tanya apakah saya belum mencapai batas API overpass tetapi sejauh ini tidak berhasil.

Bisakah seseorang mengarahkan saya ke alasan mengapa saya tidak mendapatkan informasi jalan, poligon, garis apa pun ke dalam basis data saya?


Saat Anda meminta untuk hanya memiliki node, hanya itu yang Anda dapatkan. Lihat http://wiki.openstreetmap.org/wiki/Overpass_API/Language_Guide#Nodes untuk detail lebih lanjut.

Permintaan Anda seharusnya

http://overpass-api.de/api/interpreter?data=(node(52.06.5.04,52.08.5.06);<;>;);out;


Menghubungkan Kafka ke PostgreSQL: 4 Langkah Mudah

Apakah Anda ingin mentransfer data PostgreSQL Anda menggunakan Kafka? Apakah Anda merasa sulit untuk menghubungkan Kafka ke PostgreSQL? Yah, tidak terlihat lagi! Artikel ini akan menjawab semua pertanyaan Anda & membebaskan Anda dari stres mencari solusi yang benar-benar efisien. Ikuti panduan langkah demi langkah kami yang mudah untuk membantu Anda menguasai keterampilan mentransfer data Anda secara efisien dari PostgreSQL menggunakan Kafka.

Ini akan membantu Anda mengambil alih dengan cara yang bebas repot tanpa mengorbankan efisiensi. Artikel ini bertujuan untuk membuat proses ekspor data semulus mungkin.

Setelah penelusuran konten yang lengkap, Anda akan berhasil menghubungkan Kafka ke PostgreSQL untuk mentransfer data dengan mulus ke tujuan pilihan Anda untuk analisis yang bermanfaat secara real-time. Ini selanjutnya akan membantu Anda membangun saluran ETL yang disesuaikan untuk organisasi Anda. Melalui artikel ini, Anda akan mendapatkan pemahaman yang mendalam tentang alat dan teknik & sehingga, ini akan membantu Anda mengasah keterampilan Anda lebih jauh.


Di PostgreSQL (seperti yang dijelaskan dalam dokumentasi, Skema Informasi):

Untuk MySQL Anda perlu table_schema='dbName' dan untuk MSSQL hapus kondisi itu.

Perhatikan itu "hanya tabel dan tampilan yang ditampilkan yang dapat diakses oleh pengguna saat ini". Juga, jika Anda memiliki akses ke banyak database dan ingin batasi hasilnya ke database tertentu, Anda dapat mencapainya dengan menambahkan kondisi AND table_catalog='yourDatabase' (dalam PostgreSQL).

Jika Anda juga ingin singkirkan headernya menampilkan nama baris dan footer yang menunjukkan jumlah baris, Anda dapat memulai psql dengan opsi baris perintah -t (kependekan dari --tuples-only ) atau Anda dapat mengubah pengaturan di baris perintah psql dengan (kependekan dari pset tuples_only ) . Ini bisa berguna misalnya ketika menyalurkan output ke perintah lain dengan g [ |command ] .


Tema yang Muncul: Informasi Geografis Sukarela

Untuk Tema yang Muncul minggu ini, Anda akan meninjau materi di bawah ini dan terlibat dalam diskusi Kanvas dengan teman sekelas Anda - lihat detail di bawah.

Data spasial secara tradisional dikembangkan oleh lembaga pemerintah dan bisnis yang mampu membayar pengeluaran teknis dan keuangan yang diperlukan untuk mendigitalkan informasi spasial. Kemajuan terbaru dalam pemetaan web dan teknologi GPS memungkinkan para sukarelawan yang paham teknologi untuk mengembangkan kumpulan data spasial mereka sendiri. Data geografis semacam ini sering disebut "Informasi Geografis Sukarela" atau disingkat VGI. Video pendek (31 detik) berikut di bawah ini menunjukkan respons VGI yang dramatis terhadap Gempa Haiti 2010 melalui penambahan dan koreksi pada data OpenStreetMap untuk negara tersebut. Haiti sebelumnya merupakan tempat yang kurang terpetakan, dan ada kebutuhan segera setelah bencana untuk mengembangkan peta dasar yang jauh lebih baik untuk membantu upaya pemulihan. Ini adalah peristiwa penting dalam VGI untuk tanggap bencana/kemanusiaan seperti yang dibahas oleh Meier dalam bab pertama Kemanusiaan Digital yang Anda baca di Pelajaran 1.

Salah satu upaya VGI yang paling efektif dapat ditemukan di OpenStreetMap.org. OpenStreetMap memiliki tujuan untuk mengembangkan peta dasar jalan, nama tempat, dan fitur spasial umum lainnya untuk dunia, berdasarkan kontribusi sukarela. Proyek OpenStreetMap bertujuan untuk menyediakan kumpulan data geospasial di seluruh dunia yang sepenuhnya gratis tanpa batasan hukum atau teknis apa pun dalam penggunaannya. Sumber daya pemetaan web paling populer seperti Google Maps atau Bing Maps sangat membatasi bagaimana data mereka dapat dimanipulasi, dipublikasikan, atau ditampilkan. Beberapa orang menerima begitu saja bahwa peta ini gratis, tetapi, pada kenyataannya, mereka hanya gratis karena perusahaan-perusahaan itu menyediakan akses ke mereka sekarang secara gratis. Anda tidak diizinkan untuk menggunakan kembali dan menggunakan kembali sumber daya tersebut atau mengunduh data mereka sendiri, dan jika Google memutuskan besok untuk menagih Anda untuk akses ke peta mereka, Anda tidak memiliki jalan lain untuk memastikan Anda menyimpan akses secara gratis.

Tren penting lainnya dalam VGI adalah penggunaan kampanye microtasking atau 'micromapping' yang membagi tugas besar menjadi bagian-bagian kecil yang dapat dilakukan oleh komunitas VGI. Sebagai contoh, lihat ulasan menarik dan bermanfaat tentang peran tugas mikro dalam manajemen darurat dari Australian Institute of Disaster Resilience. Di beberapa sistem, Anda disajikan dengan ubin dari citra resolusi tinggi dan Anda diminta untuk mencari dan menandai fitur seperti 'Tumpukan sampah', 'Jalan yang diblokir', dan 'Bangunan yang rusak'. Perlu dicatat bahwa microtasking seperti ini juga dapat digunakan untuk melatih algoritma Machine Learning untuk mendeteksi fitur yang sama ini dengan akurasi tinggi. Anda dapat membaca lebih lanjut tentang ini di Bab 6, 'Kecerdasan Buatan di Langit', dari Digital Humanitarians. Ini benar-benar hal mutakhir yang terjadi sekarang.

Sekarang, saya ingin Anda mempertimbangkan VGI dengan "warga sebagai sensor". Di sinilah informasi yang relevan dengan bencana dikumpulkan melalui perangkat yang dibawa orang. Saya yakin Anda dapat memikirkan banyak contoh data yang dapat Anda peroleh dari ponsel cerdas, tetapi saya ingin menyoroti sebuah proyek yang dimulai di Jepang tak lama setelah bencana nuklir Fukushima Daiichi. Tim Safecast mengembangkan perangkat kecil untuk radiasi, memetakan hasil yang dapat Anda lihat di peta web di sini. Contoh terbaru dari warga sebagai sensor adalah Aplikasi COVIDSafe yang digunakan di Australia. Ini adalah aplikasi pelacakan kontrak yang merekam semua orang yang Anda hubungi melalui Bluetooth di ponsel. Data dienkripsi di ponsel Anda dan hanya diakses jika seseorang yang Anda kontak dengan seseorang yang dites positif COVID-19.

Dapat dikirim

  1. Beri komentar di Diskusi Tema yang Muncul (L3) forum yang menjelaskan bagaimana menurut Anda munculnya sumber-sumber baru VGI berdampak pada sistem geospasial untuk Manajemen Darurat. Apakah ada sumber VGI masa depan yang harus kita rencanakan? Apakah metode saat ini untuk menyediakan VGI berkelanjutan dalam jangka panjang? Bagaimana Anda memastikan bahwa akan selalu ada relawan?
  2. Berikan tautan dan deskripsi singkat ke upaya VGI 'dalam berita' atau yang pernah Anda temui.
  3. CATATAN: Tanggapi tugas ini di Diskusi Tema yang Muncul (L3) forum pada tanggal yang tertera pada kalender kursus.

Kriteria Penilaian

Diskusi ini akan dinilai dari 15 poin.

Silakan lihat halaman Harapan dan Penilaian Diskusi di bawah modul Orientasi dan Sumber Daya Kursus untuk detailnya.


Proyek dan alat terkenal apa yang tersedia untuk pemetaan kolaboratif?

Ada banyak cara berbeda untuk membuat peta kolaboratif. Yang paling mudah adalah duduk bersama orang lain dan menggunakan pena dan kertas. Sementara kolaboratif dalam proses pembuatan, teknik pena-dan-kertas tidak dengan mudah memungkinkan kolaborasi di luar kelompok kecil yang dapat berkumpul di sekitar selembar kertas. Bahkan jika selembar kertas berukuran sangat besar, ada batasan fisik berapa banyak orang yang dapat bekerja pada saat yang sama pada selembar kertas. OpenStreetMap memungkinkan kelompok untuk berkolaborasi di peta secara elektronik, yang sangat memperluas jumlah itu. Tapi ini bukan satu-satunya pilihan. Selain pena dan kertas dan alat-alat di sekitar OpenStreetMap, ada banyak cara berbeda untuk membuat peta yang kolaboratif dan dapat dibagikan.

WikiMapia

Menurut WikiMapia (http://wikimapia.org) itu sendiri, "WikiMapia adalah peta online yang dapat diedit - Anda dapat menggambarkan tempat mana pun di Bumi. Atau hanya menjelajahi peta untuk menemukan banyak tempat yang sudah ditandai." Dengan WikiMapia Anda dapat menambahkan gedung perkantoran, restoran, taman dan desa untuk menyebutkan beberapa item saja. Ide dengan WikiMapia adalah bahwa ada satu peta kolaboratif yang dikerjakan bersama oleh semua orang. Anda tidak memerlukan akun untuk mulai menambahkan informasi ke WikiMapia, atau untuk melihat informasi yang telah ditambahkan orang lain. Anda memang memerlukan akun (dan sejumlah kontribusi tertentu untuk proyek) untuk mulai mengubah tempat yang telah ditambahkan orang lain.

Ushahidi

Ushahidi (http://ushahidi.com) adalah aplikasi perangkat lunak sumber terbuka yang memungkinkan Anda untuk mengumpulkan laporan informasi, dan memvisualisasikan informasi tersebut pada peta dan garis waktu. Awalnya digunakan untuk membuat peta yang melaporkan insiden kekerasan selama kekerasan pasca pemilihan di Kenya pada 2007-2008. Hari ini digunakan untuk banyak proyek pemetaan kolaboratif yang berbeda. Idenya dengan Ushahidi adalah bahwa pengguna dapat mengirimkan "laporan" langsung melalui aplikasi Ushahidi, melalui jejaring sosial, atau bahkan melalui SMS. Anda dapat dengan cepat memulai versi Ushahidi menggunakan CrowdMap (http://crowdmap.com) atau mengunduh kode sumber dan menjalankannya di server Anda sendiri.

Google Pencipta Peta

Google Pencipta Peta (http://www.google.com/mapmaker) adalah cara untuk memperbaiki dan menambahkan informasi ke Google Maps dan Google Earth. Contoh informasi yang dapat Anda tambahkan termasuk jalan atau tempat menarik yang hilang dan salah. Pengeditan yang dilakukan oleh pengguna baru melalui proses peninjauan sebelum dipublikasikan. Di bagian dunia tertentu, informasi peta baru selalu ditinjau sebelum ditampilkan secara publik.

Google Petaku

Google MyMaps (http://maps.google.com/maps/mm) adalah tab yang terkait dengan Google Maps yang memungkinkan Anda menyimpan informasi di peta Anda sendiri. Anda dapat memutuskan apakah peta Anda harus publik atau pribadi, hanya dibagikan dengan orang-orang tertentu yang memiliki tautan ke peta tersebut. Anda juga dapat mengundang orang-orang tertentu untuk berkolaborasi dengan Anda atau membuat peta Anda tersedia bagi seluruh dunia untuk berkontribusi.


Menguji koneksi PostgreSQL dengan QuantumGIS

  • Jalankan "/usr/bin/qgis" .
  • Menu -> Layer -> Tambahkan Layer PostGIS.
    • Buat koneksi LocalHost:
      • Tuan rumah: 127.0.0.1
      • Basis data: "lokasi"
      • Pelabuhan: 5432
      • Nama pengguna: gis
      • planet_osm_line
      • planet_osm_point
      • planet_osm_poligon
      • planet_osm_roads

      Tergantung pada ukuran database, peta bisa memakan waktu cukup lama untuk menggambar. Jika peta telah digambar dengan memuaskan, kemungkinan besar impor osm2pgsql berhasil.


      Dari sudut pandang konseptual yang setara dengan tipe data BLOB Oracle adalah byte di Postgres.

      bytea hanya memungkinkan Anda untuk membaca dan menulis menyelesaikan data (Anda tidak bisa hanya mengambil 100KB dari nilai 1GB). Yang berarti bahwa ini disimpan dalam memori pada JVM saat membacanya. Ini sama dengan tipe BLOB Oracle. Dari sudut pandang JDBC, kedua tipe data tersebut berperilaku hampir sama.

      OID (atau lebih baik: "objek besar") bukanlah "tipe data" yang sebenarnya. Ini hanyalah penunjuk ke data yang disimpan dalam sistem file. Keuntungan menggunakan objek besar adalah Anda dapat mengalirkan konten dengan benar dari server ke klien, Anda tidak perlu memuat seluruh data biner ke dalam memori klien.

      Namun berurusan dengan objek besar jauh lebih rumit daripada berurusan dengan kolom byte. Anda juga perlu secara manual bersihkan objek besar yang dihapus jika Anda menghapus baris yang sesuai dari tabel dasar (sesuatu yang tidak perlu Anda lakukan dengan bytea ). Membaca dan menulis objek besar juga jauh lebih rumit daripada berurusan dengan nilai byte.

      Karena Anda saat ini menggunakan kolom BLOB, Anda tampaknya memiliki memori di sisi klien untuk memproses data, dalam hal ini untuk membuat transisi semulus mungkin, saya sangat menyarankan untuk menggunakan byte di Postgres.


      Blog kami

      Salah satu hal yang lebih menakutkan yang dapat Anda jalankan sebagai DBA (apakah menggunakan Postgres atau sistem yang lebih rendah) adalah crash yang diikuti oleh kegagalan total database untuk memulai kembali. Berikut ini ikhtisar singkat tentang langkah-langkah yang dapat diambil seseorang ketika ini terjadi.

      Langkah pertama adalah melihat mengapa tidak dimulai dengan memeriksa log. Periksa log Postgres normal Anda, tetapi juga periksa nama file yang diteruskan ke --catatan argumen untuk pg_ctl, karena Postgres mungkin belum cukup jauh untuk memulai logging normal. Sebagian besar waktu kesalahan ini tidak serius, cukup jelas, dan dapat disembuhkan dengan mudah—seperti kehabisan ruang disk. Jika ragu, cari di web atau tanyakan di saluran #postgresql IRC dan kemungkinan besar Anda akan menemukan solusinya.

      Terkadang kesalahannya lebih serius, atau solusinya tidak begitu jelas. Pertimbangkan masalah ini yang dialami seseorang di saluran #postgresql beberapa waktu lalu:

      Seperti yang Anda lihat, Postgres telah mengisyaratkan bahwa Anda mungkin berada dalam masalah besar dengan sarannya untuk menggunakan cadangan. Daemon Postgres benar-benar gagal untuk memulai karena indeks rusak. Postgres telah mengakui bahwa indeks B-tree tidak lagi terlihat seperti B-tree seharusnya dan keluar.

      Untuk banyak kesalahan, langkah selanjutnya adalah mencoba memulai Postgres dalam mode pengguna tunggal. Ini mirip dengan “Safe mode” di Windows—​ini memulai Postgres dengan cara sederhana, dan ditujukan terutama untuk men-debug masalah seperti startup yang gagal. Mode ini dimasukkan dengan menjalankan "postgres" yang dapat dieksekusi secara langsung (sebagai lawan dari pg_ctl melakukannya), dan memberikan argumen tertentu. Berikut ini contohnya:

      Ini memulai program "postgres" (dulu "postmaster"), memasuki mode pengguna tunggal, menentukan di mana direktori data berada, mematikan indeks sistem, dan menyetel output debug ke 1. Setelah dijalankan, Anda akan memiliki prompt sederhana. Dari sini Anda dapat memperbaiki masalah Anda, seperti mengindeks ulang indeks yang buruk, yang mungkin menyebabkan kegagalan startup normal. Gunakan CTRL-d untuk keluar dari mode ini:

      Jika Anda tidak dapat memperbaiki hal-hal dengan mode pengguna tunggal, saatnya untuk serius. Ini akan menjadi waktu yang tepat untuk membuat cadangan tingkat file yang lengkap. Salin seluruh direktori data ke server yang berbeda atau setidaknya ke partisi yang berbeda. Pastikan Anda mendapatkan semuanya di direktori pg_xlog juga, karena mungkin disinkronkan di tempat lain.

      Saatnya menggunakan pg_resetxlog, bukan? Tidak, tidak sama sekali. Penggunaan utilitas pg_resetxlog harus dilakukan sebagai upaya terakhir mutlak, dan masih ada beberapa hal yang harus Anda coba terlebih dahulu. Masalah Anda mungkin telah terpecahkan—​jadi langkah selanjutnya adalah mengupgrade Postgres ke revisi terbaru. Dengan Postgres, revisi (angka terakhir dalam string versi) selalu disediakan untuk perbaikan bug saja. Selanjutnya, mengubah revisi hampir selalu sesederhana menginstal biner baru. Jadi jika Anda menjalankan Postgres versi 9.0.3, tingkatkan ke yang terbaru di seri 9.0 (9.0.18 pada tulisan ini). Periksa catatan rilis, lakukan peningkatan, dan coba mulai Postgres.

      Masih bingung? Pertimbangkan untuk meminta bantuan. Untuk bantuan cepat dan gratis, coba saluran #postgresql IRC. Untuk bantuan gratis yang sedikit lebih lambat, coba milis pgsql-general. Untuk kedua opsi ini, mayoritas pelanggan berkumpul di dekat zona waktu Timur AS, sehingga waktu respons akan lebih cepat pada pukul 15.00 waktu New York dibandingkan pukul 03.00 waktu New York. Untuk bantuan berbayar, Anda dapat menemukan pakar Postgres (seperti End Point!) di daftar layanan profesional di postgresql.org,

      Langkah selanjutnya tergantung pada kesalahan, tetapi rute lain adalah meretas kode sumber untuk Postgres untuk mengatasi kesalahan yang mencegah startup. Ini bisa berarti, misalnya, mengubah pengecualian FATAL menjadi PERINGATAN, atau tipu daya lainnya. Ini adalah hal-hal tingkat ahli, tentu saja, tetapi dilakukan dengan hati-hati masih bisa lebih aman daripada pg_resetxlog. Jika memungkinkan, coba ini pada salinan data!

      Jika Anda telah melakukan yang lainnya, sekarang saatnya untuk mencoba menggunakan pg_resetxlog. Pastikan Anda membaca halaman manual tentang hal itu sebelum digunakan. Ingat ini adalah perintah yang tidak dapat dibalikkan, mungkin penghancur data! Namun, terkadang itu adalah satu-satunya hal yang akan berhasil.

      Jika Anda berhasil memperbaiki masalah—setidaknya cukup untuk memulai Postgres—item berikutnya adalah membuat cadangan logis lengkap dari database Anda. Ini berarti melakukan pg_dump penuh segera. Ini sangat penting jika Anda menggunakan pg_resetxlog. Buang semuanya, lalu pulihkan ke dalam kluster Postgres baru (perbarui ke revisi terbaru terlebih dahulu jika diperlukan!). Pg_dump tidak hanya akan memungkinkan Anda untuk membuat versi database yang berfungsi dengan baik, tetapi juga merupakan cara yang bagus untuk memeriksa integritas data Anda, karena ia harus memeriksa setiap baris data yang Anda miliki. Itu akan bukan periksa kewarasan indeks Anda, tetapi ada cara lain untuk melakukannya, yang paling sederhana adalah melakukan REINDEX DATABASE pada setiap database di cluster Anda.

      Semua langkah ini, termasuk pg_resetxlog, mungkin membantu atau tidak. Dalam contoh "tautan kiri tidak cocok" di atas, tidak ada yang dapat memperbaiki masalah (bukan mode pengguna tunggal, atau revisi yang lebih baru, atau pg_resetxlog). Ada kemungkinan bahwa data dapat dipulihkan dengan meretas kode sumber atau menggunakan alat untuk mengekstrak data secara langsung, tetapi itu tidak perlu karena ini adalah eksperimen AWS yang berumur pendek. Konsensusnya adalah itu mungkin masalah perangkat keras. Yang menunjukkan bahwa Anda tidak pernah dapat sepenuhnya mempercayai perangkat keras atau perangkat lunak Anda, jadi selalu uji, sering, dan banyak cadangan di dekat Anda!


      Opsi gudang data lainnya

      Azure Synapse sangat bagus, tetapi terkadang Anda perlu mengoptimalkan untuk berbagai hal saat memilih gudang data. Beberapa orang memilih untuk menggunakan Amazon Redshift, Google BigQuery, PostgreSQL, Snowflake, atau Panoply, yang merupakan RDBMS yang menggunakan sintaks SQL serupa. Lainnya memilih danau data, seperti Amazon S3 atau Delta Lake di Databricks. Jika Anda tertarik untuk melihat langkah-langkah yang relevan untuk memuat data ke salah satu platform ini, lihat To Redshift, To BigQuery, To Postgres, To Snowflake, To Panoply, To S3, dan To Delta Lake.


      1 Jawaban 1

      Pertama, mari kita asumsikan bahwa work_mem berada pada 1024MB , dan bukan 1024GB yang tidak mungkin dilaporkan (tidak mungkin dengan total 3GB pada mesin).

      Pokoknya terlalu tinggi. Seperti yang dikatakan dalam Konsumsi Sumber Daya dalam dokumentasi PostgreSQL, dengan beberapa penekanan ditambahkan:

      work_mem (bilangan bulat)

      Menentukan jumlah memori yang akan digunakan oleh operasi pengurutan internal dan tabel hash sebelum menulis ke file disk sementara. Nilai default ke satu megabyte (1MB). Perhatikan bahwa untuk kueri yang kompleks, beberapa operasi pengurutan atau hash mungkin berjalan secara paralel, setiap operasi akan diizinkan untuk menggunakan memori sebanyak yang ditentukan oleh nilai ini sebelum mulai menulis data ke dalam file sementara. Juga, beberapa sesi berjalan dapat melakukan operasi tersebut secara bersamaan. Karena itu, total memori yang digunakan bisa berkali-kali lipat dari nilai work_mem perlu untuk mengingat fakta ini ketika memilih nilai. Operasi pengurutan digunakan untuk ORDER BY, DISTINCT, dan gabungan gabungan. Tabel hash digunakan dalam gabungan hash, agregasi berbasis hash, dan pemrosesan subkueri IN berbasis hash.

      Kueri yang rencananya ditampilkan rumit dan memerlukan beberapa tingkat hashing, jadi Anda jelas dalam kasus yang diperingatkan oleh dokumen.

      1Mb default konservatif, tetapi saya tidak akan menaikkan work_mem di atas 128MB untuk instance 3GB. shared_buffers di sisi lain dapat disetel ke 1024MB : yang ini hanya dialokasikan sekali dan disimpan untuk seluruh masa pakai instance.


      Tonton videonya: OpenStreetMap + PostgreSQLHow to load OpenStreetMap data into a PostgreSQL Database